"Контроль населенностей" by me :-)
И я продолжаю считать, что современное представление о том, каким должен быть "квантовый компьютер" - изначально тупиковое, по причинам, изложенным выше. И простое "уменьшение нанометров" при создании компьютерных систем - тоже тупиковое. Потому, что увеличение плотности и тактовой частоты элементов ведёт к увеличению вероятности сбоя отдельных элементов, а сегодняшняя идеология построения "надёжной системы из ненадёжных элементов" - это введение на каждом уровне такой избыточности, которая позволила бы получать идеальные (побитно совпадающие с "паспортными") результаты при некотором количестве сбоев (как например коды Рида-Соломона на CD/DVD), и которая обеспечивает идеальную работу при количестве сбоев ниже какого-то порога, но выше порога - сразу и полностью ломается. А такая система имеет чисто термодинамические ограничения, к которым мы уже, в общем-то, подбираемся (почему, в частности, тактовая частота процессоров практически остановилась на 3ГГц, а напряжение питания - с 5В уменьшилось примерно до 1.5В, и так и остановилось).
В то же время природа использует управляющие системы (типа "мозг"), в которых сбои отдельных элементов отрабатываются совсем по другому: эти сбои приводят к плавному ухудшению качества ("точности") работы системы, при этом чтобы довести систему до полного "отказа" нужно уничтожить довольно много элементов, то есть система штатно работает при наличии какого-то процента сбоев - сбои несколько портят результат, но не убивают его полностью. Абсолютная точность таких систем (относительно) невелика, но она далеко не всегда нужна - для точных расчётов человек использует компьютеры, а думает - мозгом. И если мы научимся создавать подобные системы, умеющие штатно работать при каком-то уровне сбоев не при помощи полного устранения видимости сбоев, то, может быть, тогда и будет прорыв и вдаль (по мощности) и вглубь (по тому, что сейчас считается важным для создания ИИ).
Я так думаю.