Как измерить прирост производительности с помощью дефрагментации?

3115
pavsaund

Я полагаю, что понимаю основные концепции фрагментации данных на жестких дисках и концепцию дефрагментации, чтобы противостоять этим последствиям. На самом деле я не понимаю, как можно измерить прирост производительности путем дефрагментации файлов.

Некоторые говорят, что система реагирует «быстрее» или что вещи загружаются быстрее после выполнения дефрагментации. Я не чувствую, что это всегда так. Я много раз запускал дефрагментацию на разных компьютерах, не замечая заметного прироста производительности.

Поэтому мне интересно, есть ли способ реально измерить разницу в производительности до / после дефрагментации, и каково АКТУАЛЬНОЕ влияние на производительность системы?

** Обновление: ** То, что я ищу, - это инструмент, который может дать мне конкретное представление об общих улучшениях производительности системы. Достигается ли это наилучшим образом с помощью инструментов для тестирования производительности конкретных жестких дисков? Или получит лучший результат через приложение типа File Access Timer от Raxo ? Также я использую Windows XP

6

3 ответа на вопрос

5
Thor

Измерение прироста производительности от дефрагментации довольно сложно, однако есть некоторые утилиты, которые призваны «помочь» вам в этом.

Там это утилита называется File Access Timer, из Raxco, можно посмотреть здесь . Этот инструмент будет читать определенный файл / папку определенное количество раз и отображать, сколько времени это заняло, вместе с фрагментами.

Выдержка из файла

Таймер доступа к файлу позволяет выбрать файл или папку и несколько раз прочитать содержимое, чтобы измерить прирост производительности, достигнутый за счет дефрагментации. Общий процесс состоит в том, чтобы выбрать фрагментированный файл, прочитать файл с помощью таймера доступа к файлу Raxco, дефрагментировать файл и заново измерить время, необходимое для чтения файла. Делая это, вы можете увидеть преимущества дефрагментации для себя.

Я думаю, что вы имели в виду "** Выдержка ** из Readme" ... RBerteig 15 лет назад 0
ах спасибо исправлено сейчас. Thor 15 лет назад 0
Это небольшой инструмент, который измеряет время доступа к файлу в определенных областях моего жесткого диска и на самом деле дает мне то, о чем я прошу. Но это также требует, чтобы я вручную настроил сканирование на части, которые я хочу измерить. Спасибо, я все еще интересуюсь более продвинутыми функциями, хотя :) pavsaund 15 лет назад 0
Я дал этому время, чтобы сделать несколько запусков, и это показало некоторое увеличение времени доступа к файлам. Но это отнимает много времени, и не показывает никакого статуса ... довольно невежественный относительно того, как далеко он продвинулся pavsaund 15 лет назад 0
Для этого конкретного вопроса, похоже, нет других хороших ответов, поэтому я принимаю это сейчас. Хотя я могу последовать предложению @Mikhael Kohne pavsaund 15 лет назад 0
1
Michael Kohne

Фрагментация влияет только на вас, если вам нужно прочитать большие сегменты файла, а фрагментация заставляет вас искать их по всему диску. Если вы никогда не читаете более одного дискового кластера или около того за один раз, то фрагментация не имеет значения, потому что вам все равно придется наблюдать из-за другой активности с момента вашего последнего чтения.

Программные файлы могут повлиять на вас, потому что они имеют тенденцию быть больше, и они, как правило, читают все в одном кадре. Если ваши программные файлы фрагментированы, это может замедлить загрузку программы, возможно, в область, заметную для человека.

Если вы хотите измерить эффекты фрагментации, напишите программу, которая многократно читает большой файл от начала до конца. Сделайте 1000 пробежек или около того, чтобы сгладить шум. Теперь дефрагментируйте файл и сделайте это снова. Посмотрите, уменьшается ли среднее время чтения.

это не будет принимать во внимание различные результаты в зависимости от размера файла и фактического физического размещения на диске? имеется в виду, как далеко рука должна двигаться, и как быстро она получает доступ к маленьким / большим файлам по всему диску (с точки зрения производительности)? pavsaund 15 лет назад 0
Вы делаете очень правильное замечание. Программные файлы - это, вероятно, область на диске, где берется большая часть снижения производительности. После этого может быть каталог Windows и профили пользователей. pavsaund 15 лет назад 0
Я полагаю, вы могли бы создать серию файлов, каждый из которых был фрагментирован и разбросан по всему диску. Таким образом, вы будете читать больше поверхности диска в ходе теста, и вы, вероятно, увидите больше улучшений при дефрагментации диска. Michael Kohne 15 лет назад 0
1
John Saunders

Единственная мера, которую я когда-либо научился использовать, - это счетчик производительности Split I / Os в категории «Физический диск» в perfmon. Он измеряет количество запросов ввода-вывода в секунду, которые должны были быть разделены на два или более отдельных запроса, поскольку те дисковые блоки, которые они искали, не были смежными.