Чтобы понять эту трансформацию, необходимо изучить принцип работы компьютеров. В XIX веке английский математик и философ Джордж Буль попытался представить логику с помощью операций, включающих два состояния – ложь и истину. В принципе любую систему с двумя состояниями можно изобразить с помощью чего угодно. Например, вы можете механически представить ее двумя положениями рычага: вверх или вниз. Вы можете теоретически представить ее в виде конфеток M&M’s двух цветов – синих и красных (это, безусловно, вкусно, но непрактично). В итоге ученые решили, что лучше всего эту систему изображать цифрами 0 и 1 (такой двоичный разряд еще называют битом).
На заре вычислительной техники пользоваться Булевой логикой было сложно и громоздко. Именно поэтому компьютеру – а попросту любому устройству, которое могло выполнять операции, используя эту логику, – требовались десятки неуклюжих механических составляющих. Но в 1938 году произошел настоящий переворот: Клод Шеннон, тогда аспирант Массачусетского технологического института, понял, что можно построить электронные схемы с применением Булевой логики, а именно представить включенное состояние как 1, а выключенное – как 0. Это было революционное открытие, давшее толчок созданию компьютеров с использованием электронных компонентов. Первый программируемый электронный цифровой компьютер известен тем, что во время Второй мировой войны им пользовались шифровальщики, в том числе Алан Тьюринг[16].
Через два года после окончания войны ученые из Bell Labs разработали транзистор – полупроводниковое устройство, способное управлять электрическим током. Транзисторы могли выполнять функцию переключателей, и их можно было использовать для создания логических вентилей – элементов, способных выполнять элементарные логические вычисления. Если собрать несколько таких логических вентилей вместе, можно было получить работающее вычислительное устройство.
Звучит очень «технически», но смысл простой: новые транзисторы были меньше и надежнее, чем электронные лампы, которые использовались в первых компонентах электронных схем, и они проложили путь к созданию более сложных компьютеров. Созданный в декабре 1947 года первый транзистор был громоздким, собранным из множества деталей, в том числе скрепки для бумаг. Но он работал! С годами транзисторы превратились из такой импровизации в сложные стандартные устройства.
С конца 1940-х годов целью стало уменьшение размеров транзисторов. В 1960 году Роберт Нойс из компании Fairchild Semiconductor разработал первую в мире интегральную схему, которая объединила несколько транзисторов в одном устройстве. Эти транзисторы были крошечными, и по отдельности их невозможно было обработать ни вручную, ни машиной. Их изготавливали с помощью сложного процесса, немного схожего с химической фотографией, – фотолитографии. Специалисты направляли ультрафиолетовый свет через пленку с шаблоном – изображением схемы (похоже на детский трафарет). Схема отпечатывалась на кремниевой пластине; процесс можно было повторять на одной и той же пластине несколько раз, пока определенное количество транзисторов не накладывалось друг на друга. Каждая пластина могла содержать несколько идентичных копий схем, уложенных в сеть. Отрежьте одну копию – и получите кремниевый «чип».
Одним из первых силу этой технологии оценил Гордон Мур – исследователь, работавший на Нойса. Через пять лет после изобретения босса Мур понял, что физическая площадь интегральных схем ежегодно уменьшается примерно на 50 %, при этом количество транзисторов меньше не становится. Пленки (или «маски»), используемые в фотолитографии, становились все более детальными, транзисторы и соединения – все меньше, а сами компоненты – более замысловатыми. Это снижало стоимость и повышало производительность. Новые, более плотно упакованные чипы из меньших компонентов были быстрее старых.