Ученые, создавшие для Марка Цукерберга искусственный интеллект, остановили один из экспериментов после того, как два робота начали разговаривать друг с другом на языке, который могли понимать только они.

«Чатботы» Элис и Боб служили для упрощенного английского, чтобы облегчить взаимное общение. Они сформировали предложения, которые для всех исследователей выглядели как полный бред. Все это происходило в принадлежащем Facebook научном центре Artificial Intelligence Research (FAIR).

“Это краеугольная веха, но каждый, кто не видит в этом опасности, прячет, наверное, голову в песок. Мы не знаем, о чем они говорят. Если так начнут вести себя роботы, которые могут повлиять на наше окружение, например, вооруженные военные боты, это может быть смертельно опасным”, — считает британский профессор робототехники, Кевин Уорвик.

Уорвик добавляет, что, хотя Facebook и обнародовала первый официальный записанный разговор роботов, много таких сообщений в будущем может происходить без нашего ведома. Мы не можем быть уверены, что в состоянии контролировать сигналы, которые они посылают.

Стивен Хокинг с миллиардером и изобретателем Илоном Маском некоторое время назад уже предупреждали об угрозе со стороны искусственного интеллекта. Маск прямо заявил о том, что говорил об AI с Цукербергом, и считает, что создатель Facebook «не понимает, с чем имеет дело».

В эксперименте с Бобом и Элис боты должны были договориться и определить принципы, на которых будут производить между собой обмен предметами с разным значением (шляпы, книги и мячи). Очень скоро роботы так модифицировали язык, используя, в частности, повторения, что создали практически отдельный язык.

Видя, что происходит, ученые прекратили эксперимент. Эксперт по технологиям будущего Кейт Адамсон сказала, что почувствовалась атмосфера из фильма «Терминатор».

“Эти вещи происходят везде. Посмотрите хотя бы на алгоритмы управления в высокочастотной торговле. Они делают в точности то же самое — приобретают знания, и никто их не контролирует”, — говорит Адамсон.

Рубрики: Технологии

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *