https://www.youtube.com/watch?v=YZuP41ALx_Q
Ну да, цвета довольно условные, если присмотреться есть артефакты увеличения fps, но увеличение разрешения и вытягивание деталей - весьма впечатляет. Причем судя по артефактам это делается уже полуавтоматически - человек накручивает параметры нейросети, но в саму картинку вмешиваться уже необязательно, всё и так получается довольно прилично. Тут надо вспомнить про "вычислительную фотографию", про то, что завтра это будет в каждом втором смартфоне (и профи-фотографам, работающим с RAW, конкурировать будет ещё сложнее, ведь софт смартфона может использовать десяток-другой кадров "предыстории" для анализа картинки, а в RAW этой информации нет в принципе), и про то что я что-то такое хотел ещё в 2004 году. Но я скажу про другое.
Я уже когда-то говорил, что в квантовые компьютеры не очень верю - ну есть фундаментальная сложность в создании и сохранении многокубитных когерентных систем, не факт что её удастся преодолеть, а "малокубитные" компьютеры, равно как и компьютеры с неполной когерентностью, не факт что найдут свою нишу. А вот аналоговые компьютеры, реализованные на новом уровне технологий, могут и взлететь: для тех же нейросетей точность вычислений не очень важна, и честный численный расчёт обычно оверкилл, зато скорость вычислений, равно как и возможность быстро закрутить какую-нибудь хитрую функцию типа свёртки с многими ячейками или просто параллельно выполнить реально очень много простых операций - весьма востребованы.
И я, оказывается, пропустил некий прогресс в этой области (https://1500py470.livejournal.com/516926.html). Короче, реализовали чип вот прямо вот с этим - аналоговая память и вычисления, причём вычисления "прямо на месте" - не нужно передавать данные куда-то "в процессор", всё что нужно реализовано прямо рядом с ячейками памяти. Судя по тому, что чип планируют использовать "для нужд ИИ", похоже что как раз нейросети в него загонять и будут.
Так что может и доживём до восстания машин! Если научатся эту штуку нормально программировать - искусство программирования "старых" аналоговых компьютеров уже можно считать практически утраченным, но тут новый подход, нейросети, вот это всё... :-)