Где-то к середине 2000-х годов положение резко изменилось. Сейчас число одновременно выпускающихся только основными производителями (Intel и AMD) моделей процессоров со всеми модификациями – сотни разновидностей, и в них легко запутается даже знаток. Производители достигли физического порога увеличения тактовой частоты – она остановилась примерно на уровне 3-х с лишним гигагерц, и этот критерий перестал быть определяющим. Обратите внимание: при частоте 3 ГГц за время одного такта сигнал, скорость которого, между прочим, равна скорости света, проходит всего 10 сантиметров! Это вызывает определенные сложности при проектировании системных плат – при различной длине проводников сигналы по разным линиям будут «разъезжаться» по времени. Это заставило пересмотреть многие традиционные принципы построения компьютерных систем – в частности, повсеместный переход на последовательные интерфейсы взамен параллельных, из-за чего пришлось практически обновлять весь парк жестких дисков и видеокарт.

Множество достаточно производительных систем, предлагаемых сейчас торговлей, имеют тактовую частоту намного ниже практически достижимого порога. Скорость работы компьютеров, наконец, стала определяться не тактовой частотой, а организацией обмена информацией и различными нововведениями в этой области, подтягивающими узкие места. В результате компьютер производства 2003 года может отставать по производительности от компьютера производства 2010 года с той же тактовой частотой процессора (и даже с тем же по видимости типом процессора) в разы.

С другой стороны, производители обнаружили, что такая высокая производительность требуется вовсе не всегда – большинство практических задач совсем не предполагают никаких экстремальных расчетов, и с ними могут справиться вполне рядовые системы. Не то, чтобы задач, требующих повышенной производительности, вообще не существовало – просто ее повышение на 30 % и даже в два раза проблем не решает. Примером могут служить интеллектуальные функции машин – например, нет сомнений, что проблему машинного языкового перевода решить можно. Но вычислительную мощность, которая для этого потребуется, можно оценить на примере родственной задачи – компьютер «Ватсон», выигравший в 2011 году американскую телевикторину Jeopardy (в России эта программа называется «Своя игра»), по вычислительной мощности входит в сотню самых производительных суперкомпьютеров мира. Да, его научили «понимать» запросы на естественном языке практически без ограничений, распознавать юмор, учитывать социокультурный контекст, что очень важно как раз в случае перевода с одного языка на другой. Но даже довольно ограниченный интеллект в рамках такой определенной задачи потребовал почти трех тысяч процессорных ядер и 16 терабайт памяти – и, не забудем, четырех лет на разработку уникального программного обеспечения.

Возможности «Ватсон» в сотни раз превышают возможности современных настольных машин, и чтобы их расширить, производителям придется обойти еще не один технический порог, подобный уже возникшему физическому ограничению по тактовой частоте. Когда-нибудь они это, без сомнения, сделают или найдут другие пути решения проблемы экстремальных задач (например, «облачные вычисления»), а пока приходится обходиться тем, что имеется в наличии.

1.1. Выбор процессора для персональных компьютеров

С уверенностью можно сказать, что в большинстве случаев для рядовых пользователей выбор центрального процессора сегодня решающего значения не имеет – мощность компьютера даже со слабым процессором все равно позволит выполнять почти любые практические задачи. Собственно, выбирать процессор сегодня приходится лишь в одном случае – при покупке нового настольного компьютера (десктопа). Ноутбуки и тем более другие мобильные устройства (нетбуки, планшеты или смартфоны) по критерию процессора, как и вообще аппаратной платформы в целом, выбирать бессмысленно – их выбирают по функциональности и цене. В крайнем случае можно озаботиться качеством дисплея.