Объективная оценка результатов битвы Happy PC «Лучший ПК за 50000 рублей с OZON!»

Объективная оценка результатов битвы Happy PC «Лучший ПК за 50000 рублей с OZON!»

Happy PC провели битву сборщиков, но выбрали необъективный способ оценки ее результатов. Давайте разберемся, почему.

Оценка производительности CPU по встроенному тесту CPU-Z не учитывает разнообразные типы нагрузки. Из-за этого равные в среднем CPU могут показать совершенно разные результаты в данном тесте из-за архитектуры и других параметров. Объективнее было бы использовать Geekbench или Performance Test, которые тестируют производительность в различных нагрузках.

Частота видеоядра не имеет отношения к производительности. Какая разница для пользователя, какая частота? Ему нужна быстрая работа в приложениях и играх. Из-за этого критерия в битве участвовали сборки с бюджетными CPU и слабыми встройками.

Объем оперативной памяти нужно оценивать не по доступному для CPU, т.к. это можно настраивать в BIOS, а либо по установленному, либо, что более объективно — по общему объему RAM + VRAM, либо оценивать их по отдельности. В данной битве объем VRAM был проигнорирован, что занизило результаты ПК с дискретными видокартами, а также вариантов с встройкой, где для них было выделено больше памяти из ОЗУ.

Частота RAM имеет слабое отношение к производительности, т.к. например, DDR4 на одной частоте заматно выигрывает у DDR5. Для оценки скорости памяти можно было использовать тот же Performance Test или Aida64. С другой стороны, скорость памяти уже учитывается в тестах производительности CPU и GPU, поэтому оценивать отдельно ее необязательно. Но уж точно не по частоте.

Давать оценку от 1 до 5 некорректно с точки зрения логики и математики, поскольку близкие по реальной производительности компоненты могут получить в 2 раза отличающиеся баллы, например, многопоточная производительность Питера ниже Воронежа всего на 9,7%, а баллов он получил в 2 раза меньше (1 против 2). Было бы корректнее учитывать реальные результаты и, например, взять максимальный результат по каждому параметру за 100%. Либо, как сделал я ниже, просто посчитать среднее геометрическое всех результатов для каждого участника, что математически корректно.

Ниже мой вариант оценки результатов без учета лишних для пользователя параметров, где хорошо видно, кто и почему выиграл, а кто проиграл.

Питерский вариант очевидно выигрывает с отрывом. Из слабых мест у него — только производительность на одно ядро. Но если говорить про игры, где важна однопоточная производительность — в данной сборке не такая мощная GPU, чтобы ее не загрузить, так что это не является существенным минусом. Что касается скорости SSD — по цифрам она самая низкая, но в реальных задачах эту разницу можно будет заметить крайне редко и только с секундомером.

По версии Happy PC Питер, Белгород и Воронеж заняли одно последнее место, что не соответствует реальным показателям. В нашей оценке Белгород набрал минимум, а Питер — максимум, они никак не могут быть на одном месте. На питерской сборке можно и работать (общий объем памяти 40 Гб), и играть в современные игры. Ни одна другая сборка не предлагает таких возможностей.

Выигравший у Happy PC Калининград имеет в 2 раза меньший объем памяти, то есть возможности для работы ограничены, существенно более слабую видеокарту, то есть в современные игры на нем не поиграть, и маленький SSD. Как он мог выиграть? Зачем пользователю мощный процессор и быстрый диск, если на данном ПК нельзя запустить ничего, что могло бы это использовать? Для каких задач он предназначен?

В заключение, битва сборщиков, организованная Happy PC, выявила несколько важных моментов, которые стоит учесть при проведении подобных мероприятий в будущем. Несмотря на интересные и разнообразные подходы участников, методология оценки оказалась недостаточно объективной и комплексной. Использование более разносторонних тестов, таких как Geekbench или Performance Test, а также учет всех аспектов производительности, включая VRAM и взаимодействие компонентов, могло бы дать более точное представление о качестве собранных компьютеров.

Кроме того, система оценки должна быть пересмотрена, чтобы избежать несоответствия между реальной производительностью и набранными баллами. Введение процентного соотношения или среднего геометрического результатов могло бы сделать оценку более справедливой и прозрачной.

В конечном итоге, цель таких конкурсов — не только выявить победителя, но и показать разнообразие возможных решений и их сильные стороны. Улучшение методологии оценки поможет достичь этой цели и сделать будущие битвы сборщиков более информативными и полезными для всех участников и зрителей.