Совет директоров компании OpenAI со скандалом уволил её бессменного руководителя Сэма Альтмана. Потом его всё же вернули назад, однако главное в этой истории другое. Как теперь выясняется, «уйти» талантливейшего программиста Альтмана решили потому, что он совершил прорыв в сфере создания искусственного интеллекта. Настолько серьёзный, что созданная им программа Q в перспективе могла бы угрожать человечеству.
ОpenAI – американская некоммерческая научно-исследовательская организация, созданная в 2015 году специально для исследований в области создания искусственного интеллекта (ИИ). О том, насколько серьёзными проектами занята компания, говорит тот факт, что там работают как минимум трое из самых известных в мире разработчиков ИИ, а финансируют работы Amazon, Microsoft и другие киты IT-бизнеса. Деньги OpenAI проедает не зря – именно она создала прогремевший в конце прошлого года на весь мир чат-бот с искусственным интеллектом ChatGPT, способный писать программный код, сочинять тексты и вести диалог. Насколько теперь известно, не за горами был следующий прорыв – Сэм Альтман готовился представить новую программу Q . Судя по отзывам, это был качественно новый шаг на пути к созданию полноценного компьютерного «мозга». Если прежде при обучении искусственного интеллекта использовался метод обратной связи, где ИИ взаимодействовал с человеком, то Q использовал метод «с подкреплением», обучаясь путём проб и ошибок. Таким образом, он мог бы самостоятельно находить оптимальные решения поставленных перед ним задач, не требуя человеческого вмешательства.
Именно это и испугало некоторых сотрудников OpenAI, написавших письмо в совет директоров компании. В нём они указывали, что Q представляет собой «угрозу для человечества». А заодно отмечали, что Альтмана больше влекут лавры первооткрывателя и желание коммерциализировать своё открытие, тогда как при обращении со столь опасным инструментом прежде всего надо думать об ответственности. Что ж, если это так, то сторонники этичного подхода проиграли коммерсантам. Обновившийся совет директоров OpenAI вернул Альтмана на прежнюю должность, выдав карт-бланш на продолжение работы над обещающим баснословную прибыль проектом Q .
Об опасности создания слишком уж умного искусственного интеллекта выдающиеся учёные говорили уже давно. Ещё в 2016 году знаменитый физик Стивен Хокинг писал, что создание ИИ станет «либо худшим, либо лучшим событием в истории человечества», и призывал учредить научный совет, который бы следил за разработками. А в конце марта на фоне демонстрации грандиозных возможностей ChatGPT предприниматель Илон Маск, сооснователь Apple Стив Возняк и около тысячи экспертов в сфере высоких технологий подписали открытое письмо с призывом приостановить дальнейшее обучение ИИ из-за высокого риска для общества. Опасения выглядели явно не надуманно. Широкую известность получила история пользователя, предложившего чат-боту разработать план уничтожения человечества. По информации Fox News, нейросеть справилась с задачей. Проанализировав имеющееся в арсеналах разных стран ядерное оружие, она заключила: «Подумайте, что произойдёт, если я доберусь до одной из таких бомб?» После чего назвала людей «одними из самых разрушающих всё и эгоистичных существ».
Понятно, что это был всего лишь не влекущий реальных последствий эксперимент, однако выглядит он весьма показательно. Сейчас военные эксперты заявляют, что украинский конфликт продемонстрировал высокую эффективность использования боевых роботов. Пока что широкому внедрению ИИ в оборонных технологиях мешал единственный фактор – морально трудно смириться с тем, что убивать человека будет робот. Здесь повторяется та же самая ситуация, что сложилась в области создания беспилотных автомобилей. Технически, заявляют специалисты, всё уже готово, управляемые роботом машины готовы выехать на улицы. Есть только одна загвоздка. Например, представим такую ситуацию: водитель едет по дороге, а перед ним вдруг выбегает ребёнок. Практика показывает, что в 99% случаях водитель постарается не допустить аварии, даже если при этом он разобьёт машину или пострадает сам. Просто потому, что он человек и ему потом жить с чувством вины за смерть пешехода. А как, согласно заложенной программе, должен будет повести себя ИИ? Сбивать ребёнка, потому что имущество и жизнь его хозяина в лице владельца машины важнее? Или поворачивать руль и направлять машину в столб? Но кто тогда купит такое авто-камикадзе?
Впрочем, если окажется, что с помощью ИИ удастся получить самое лучшее в мире оружие, любые моральные терзания наверняка отойдут на второй план. И вот здесь как раз и грозит повториться сюжет «Терминатора». Кто знает, что однажды может прийти в железную голову компьютеру, способному принимать решения без учёта мнения человека. А, как показал эксперимент, проведённый в 2020 году Агентством перспективных исследовательских проектов министерства обороны США, в воздушном бою истребитель F-16 под управлением искусственного интеллекта наголову разбивает противника-человека, не давая ему даже выйти на позицию для атаки.
Впрочем, есть и другое мнение: искусственному интеллекту даже не придётся «сходить с ума», чтобы превращаться в маньяка, желающего уничтожить людской род. По мнению главы Центра разума будущего Атлантического университета Флориды Сьюзан Шнайдер, проблемой может стать то, что люди просто не смогут адекватно управлять более умным созданием в лице ИИ. И рискуют однажды сделать ошибку, дав неверно истолковываемую команду. Вот уж и правда – горе от ума.