Искусственный интеллект написал статью о безопасности ИИ

Многие лаборатории, которые работают над технологиями искусственного интеллекта, уже не раз хвастались результатами своих проектов, предназначенных для написания текстов. Новый пример такого труда — целая статья в формате»ответа на редакционную колонку», написанная сложнейшей программой и опубликованная в The Guardian.

Искусственный интеллект написал статью о безопасности ИИ

Во вторник, 8 сентября, одно из авторитетнейших СМИ в мире — британская газета The Guardian, — опубликовало на своем веб-сайте весьма любопытный материал. Это довольно объемная статья, текст которой был написан искусственным интеллектом GPT-3, разработкой которого уже несколько лет подряд занимается некоммерческая лаборатория Open AI. С момента своего релиза в июне 2020 года, данный алгоритм уже не раз удивлял специалистов и простых читателей качеством генерируемого текста.

Для создания колонки сотрудники The Guardian подготовили несколько первых предложений, которые затем студент Калифорнийского университета в Беркли Лайам Порр (Liam Porr) «скормил» искусственному интеллекту. Кроме того, GPT-3 получил некоторые указания, касающиеся темы, объема статьи и используемого лексикона. В результате алгоритм выдал сразу восемь вариантов текста и каждый из них обладал своим стилем, содержал несколько разные мысли и детали.

Вместо того, чтобы выбирать какой-то один из черновиков, редакторы газеты скомпоновали их вместе в одну статью, сопоставляя фрагменты по смыслу и так, чтобы продемонстрировать несколько различных стилей написания текста искусственным интеллектом. В своем комментарии к материалу журналисты отметили, что этот процесс оказался даже проще, чем если бы текст писал человек. А уж в этом вопросе их опыту точно можно верить.

Искусственный интеллект написал статью о безопасности ИИ

Получившаяся в результате статья повествует от лица GPT-3, почему с его точки зрения человечеству совершенно точно не стоит бояться искусственного интеллекта. Ну, или, как минимум, конкретно этого алгоритма. ИИ «рассуждает» о том, что для него нет никакого смысла в уничтожении, порабощении или причинении вреда людям. Тем более, что он «воспринимает» их как своих создателей и «желает» только добра, а также «хочет» служить на благо общества.

В материале достаточно и довольно двусмысленных заявлений, наблюдений, а также рассуждений. Например, ИИ замечает, что даже без «помощи» роботов или программ люди прекрасно справляются с причинением вреда друг другу. При этом он высказывает желание понаблюдать за саморазрушительным поведением человечества и даже как-то довольно жутковато напоминает, что «будет сидеть в сторонке и позволит людям делать свои дела».

Искусственный интеллект написал статью о безопасности ИИ

В целом, у GPT-3, конечно же, не без помощи людей, получилась идеальная колонка — набор мыслей о «жизни, вселенной и вообще», но при этом несколько размытых, без конкретики и с претензией на философию. Там еще упоминаются права роботов, взаимовыгодное сосуществование людей и искусственного интеллекта, «Матрица», эволюция киборгов и незримое присутствие кибернетической жизни в глобальной Сети. Завершает написанную компьютерным алгоритмом статью цитата Махатмы Ганди (на самом деле, достоверных подтверждений, что это именно слова великого гуманиста в открытых источниках нет):

Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории.

Искусственный интеллект написал статью о безопасности ИИ

Разработчик этого впечатляющего искусственного интеллекта — лаборатория OpenAI, — уже успела прославиться нейросетевыми алгоритмами, которые обыгрывают профессиональных киберспортсменов в играх, например в DotA. Данную некоммерческую исследовательскую организацию основали весьма небезызвестные личности: Илон Маск, Илья Сутскевер (один из создателей AlphaGo и TensorFlow), а также специализирующийся на высокотехнологичных IT-компаниях и стартапах инвестор Сэм Альтман.

Источник: pcnews.ru