Дополняя реальность. Ученые МФТИ создают уникальные вычислительные устройства.

Хорошая новость на днях пришла из МФТИ. Ученые Лаборатории искусственных квантовых систем и Центра коллективного пользования Физтеха впервые в России изготовили и протестировали устройство, представляющее собой сверхпроводящую двухкубитную схему с управляемой связью, которая является развитием годом ранее созданного здесь же кубита — основного элемента будущих квантовых компьютеров. В интервью корреспонденту “Поиска” заместитель руководитель Центра коллективного пользования МФТИ Дмитрий Негров (на верхнем снимке) коснулся некоторых деталей нашумевшей работы, а также рассказал о том, какие еще горизонты штурмуют специалисты его подразделения. В разговоре принял участие научный сотрудник Лаборатории функциональных материалов в микроэлектронике Сергей Захарченко (на нижнем снимке).

Дмитрий Негров:
— Если говорить о продвижении в создании квантовых систем, то сейчас совместные усилия Лаборатории искусственных квантовых систем под руководством Олега Астафьева и нашего ЦКП направлены на отладку технологий, позволяющих такие многокубитные системы создавать. В ЦКП есть технологическая площадка, которая дает возможность делать эти устройства, в Лаборатории искусственных квантовых систем — люди, которые понимают, как такие системы работают, и знают, как их тестировать. Поскольку в МФТИ есть и необходимое оборудование, и квалифицированные сотрудники, мы постепенно движемся в этом направлении.
Проблема в том, что квантовые состояния очень хрупкие: они реагируют на малейшие воздействия. Есть такой замечательный эффект — сверхпроводимость, он позволяет достаточно долго хранить информацию в состоянии токов, циркулирующих в схемах. Группа Астафьева и мы занимаемся вычислениями на сверхпроводящих цепях. Для того чтобы все работало, нужно максимально изолироваться от внешней среды, создать особые условия, например очень низкие температуры, порядка 15-20 миллиКельвин, что в 10 000 раз ниже комнатной температуры! У всех квантовых систем есть такой важный параметр, как время когерентности, в течение которого они могут хранить информацию. Сейчас мы пытаемся его наращивать. 
Помимо исследований в области квантовых систем ученые ЦКП ведут работы в направлении нейровычислений — это и создание микрочипов, и разработка соответствующего программного и математического обеспечения.
— Как формулируется задача, которую вы пытаетесь решить?
Дмитрий Негров:
— Мы работаем в области machine learning (машинного обучения), которая сейчас переживает своеобразный ренессанс, поскольку выросли вычислительные мощности и стало возможно решать задачи, которые 10-15 лет назад были недоступны. Однако остается проблема с тем, что существующие вычислительные платформы (обычные компьютеры, различные суперкомпьютерные кластеры) слишком энергозатратны. То есть количество энергии, которое требуется на условный шаг расчета, по-прежнему очень большое, что сильно ограничивает применение таких систем в различных портативных устройствах, робототехнических платформах. 
— Можно на конкретных примерах пояснить, о чем идет речь? 
Дмитрий Негров:
— Представьте себе, что в вашем мобильном телефоне есть система, которая с помощью встроенной камеры распознает происходящее вокруг и накладывает на изображение дополнительную информацию. “Дополненная реальность” — достаточно актуальная сегодня тема: у вас есть видеопоток, в нем вы выделяете что-то важное и хотите проанализировать изображение, выделив и проклассифицировав на нем объекты. Интересное применение может быть, например, в автомобильных системах управления. Нынешние системы автобезопасности зачастую очень примитивны: они способны сообщить, например, что на дороге возникло препятствие и нужно затормозить. Но фактически такие системы не учитывают всей дорожной обстановки. Они не могут сказать, какой именно объект “выскочил” на полосу движения и что надо делать — резко затормозить или можно его объехать. Для того чтобы такие вещи оценить, нужны достаточно сложные нейровычисления. Тут-то и возникает проблема: имеющиеся платформы, на которых их нужно производить, требуют очень много энергии для работы. А в автомобилях возникает еще и вопрос габаритов, потому что вряд ли кто-то захочет занять электроникой, которая выполняет задачу автоматического управления, весь багажник машины.
— Недавно сообщали, что в США произошло первое ДТП с участием самоуправляемого автомобиля Google. Получается, система не сработала?
Дмитрий Негров:
— Сработала, но не совсем. В том-то и проблема “дорожных” задач, что есть правила, а есть конкретные ситуации, в которых нужно действовать, учитывая множество обстоятельств. Это область нечетких вычислений, с которой системы machine learning могут хорошо справляться. 
Есть три основных фактора, которые нужно учитывать, — цена этих вычислительных платформ, объем, который они занимают, и энергопотребление (имеет особое значение в портативных устройствах). Эти проблемы могут решаться разработкой специальных вычислительных устройств, которые непосредственно заточены под выполнение алгоритмов машинного обучения, чем мы, собственно, и занимаемся.
— В чем суть этих устройств?
Дмитрий Негров:
— Тут стоит сказать о нескольких вещах. Во-первых, необходимо создать архитектуру, непосредственно предназначенную для выполнения нейросетевых алгоритмов, которые показывают очень хорошие результаты в решении таких нечетко поставленных задач (типа езды по дороге или распознавания образов).
— “Нейро” говорит о том, что создается некий аналог мозга?
Дмитрий Негров:
— И да, и нет. Изначально, еще в 1970-е годы, разработчики действительно пытались механизмам его действия подражать. Из компьютерных моделей нейронов строилась искусственная сеть в надежде, что по аналогии с человеческим мозгом она сможет решать какие-то задачи. Проблема была в том, что нейронов в мозге очень много, и такое количество информации от их искусственных аналогов компьютеры того времени просто не могли обрабатывать. Когда вычислительные мощности достигли достаточного уровня (примерно 10 лет назад), эти подходы начали очень интенсивно развиваться, удалось построить нейросети такого объема, чтобы они решали очень сложные задачи, к которым не подступиться другими способами. И сейчас это достаточно зрелая, хорошо разработанная область и фактически единственный подход, который позволяет достичь видимых результатов. Хотя есть и классические методы машинного обучения, обработки алгоритмов, которые ведут себя гораздо слабее. 
Сергей Захарченко:
— Чем хороши нейросети? Тем, что они могут обобщать, выделять характерные признаки. Ведь мы сами далеко не всегда понимаем, как идентифицировать объекты, нам тяжело составить набор конкретных критериев, которым должна удовлетворять картинка, чтобы точно сказать, что же изображено. Особенность алгоритмов машинного обучения заключается в том, что они используют довольно сложный статистический анализ и фактически могут определить эти признаки сами. Сейчас в качестве модельной задачи машинного обучения используется, например, такая: есть изображение, снятое при помощи летательного аппарата, и его надо превратить в карту местности — разметить дороги, леса, дома. Это нечеткие категории: чтобы понять, является ли объект, например, деревом, практически невозможно использовать детерминированный алгоритм, в котором при помощи четких правил задача формализуется. То есть нам нужно иметь что-то, умеющее находить общие признаки, причем без явного указания на них. Грубо говоря, подходы машинного обучения заключаются не в том, чтобы построить какой-то конкретный алгоритм, который позволяет, имея набор признаков, понять, какой объект изображен, а в том, чтобы этот алгоритм самостоятельно набор признаков создавал. 
— Чем же вы оперируете и в чем ваши исследования заключаются?
Дмитрий Негров:
— Я бы выделил несколько направлений. Прежде всего, архитектурно-электронное. Любое вычислительное устройство состоит из набора вычислительных модулей и памяти, в которой хранится информация. Вычислительные модули должны отправить в память результаты своих вычислений. Потом из памяти их потребуется забрать, чтобы какие-то еще дополнительные вычисления проделать — и так это переходит из памяти в ядра и обратно в память. Логично было сократить путь и дать возможность вычислительным ядрам общаться друг с другом напрямую, чтобы убрать своеобразное “бутылочное горлышко”. 
Еще одна проблема заключается в том, что в искусственных нейросетях (как и в естественных) большинство нейронов не работает. В стандартной ситуации они находятся в “спящем” состоянии и энергии почти не потребляют. Архитектуры, на которых сейчас производятся расчеты, — процессоры, видеокарты — тоже пытаются “гасить” часть своих вычислительных модулей в ходе работы. Но у процессоров нет той структуры, которая позволяла бы полностью выключать те вычислительные модули, которые не используются. То есть когда мы какой-то нейросетевой алгоритм пытаемся на них выполнить, очень много электроники работает вхолостую. И здесь возникает возможность учесть структуру нейросетевых алгоритмов непосредственно в железе, чтобы использовать в данный момент именно те вычислительные блоки, которые нужны, и не более. Понятно, что это позволяет значительно экономить электроэнергию. 
Кроме того, есть еще одна особенность, которая связана скорее не с архитектурой систем, а с их элементной базой. Сейчас память, которая используется в компьютерах, делится на два больших подвида — память постоянного хранения и оперативная память. Проблема памяти постоянного хранения в том, что она очень недолговечна. Если мы говорим о флэш-памяти, то она работает буквально несколько тысяч циклов перезаписи и дальше информацию сохранять не способна. Кроме этого, флэш-память достаточно медленная, смена состояний ячейки занимает миллисекунды. А оперативная память имеет свои недостатки: во-первых, теряет информацию при отключении питания, во-вторых, не обладает высокой “плотностью”. То есть объем информации, которую можно разместить на каком-нибудь кристалле, гораздо меньше для оперативной памяти, чем для постоянной. К тому же энергопотребление у оперативной памяти обычно выше. 
Однако можно создать запоминающие устройства, которые не имеют указанных недостатков. К ним, например, относятся устройства резистивно переключаемой памяти, которая при очень маленькой занимаемой площади, сравнимой с флэш, не требует энергии на хранение информации, но, кроме того, ее можно очень быстро переключать. Речь идет о наносекундах. По некоторым причинам она очень удобна для реализации внутренней памяти в нейросетевых процессорах, которые оптимизированы под такие вычисления. 
И еще одно направление, в котором мы работаем, — это вопрос интеграции памяти непосредственно в нейросетевом процессоре. Это позволит в итоге очень плотно все упаковать, убрать “бутылочное горлышко” между памятью и вычислительными модулями. 
— Что вы хотите получить на выходе и как скоро? 
Дмитрий Негров:
— Работающие чипы, архитектуру и математическое обеспечение, позволяющие решить те задачи, о которых я говорил. Надеемся, это произойдет в течение нескольких ближайших лет.
Беседовала 
Светлана БЕЛЯЕВА

Фото Николая Степаненкова

Нет комментариев