Первый закон робототехники впервые нарушен. Роботы становятся опасными

Исследователь из США создал робота, способного полностью игнорировать первый закон робототехники и вполне осознанно нанести вред человеку. Внешне безобидное устройство, тем не менее, может принять самостоятельное решение о нападении на Homo Sapiens. Своим исследованием Александр Ребен из университета Беркли, хочет доказать необходимость создания «красной кнопки», которая сможет нейтрализовать механизмы наделенные интеллектом в том случае, если они задумают недоброе против людей.

Робот может причинить вред

Разработка Александра Ребена представляет собой небольшое устройство со специальным местом для пальца. Исследователь помещает палец в паз, а искусственный интеллект принимает решение, разрешить это действие или нет, используя для этого собственную, нечеловеческую логику. При отрицательном решении в палец, размещенный в аппарате, вонзается игла. Ребен сообщил, что даже он, являясь создателем этого устройства, не знает как себя поведет искусственный разум и произойдет укол или нет.

Конечно, робот с иглой — это не первый механизм, рассчитанный на нанесение вреда человеку. Всем отлично известны роботы и летающие дроны, оснащенные стрелковым и даже ракетным вооружением. Но, оказывается, на первый взгляд безобидная миниатюрная игрушка с иглой, гораздо опаснее беспилотного летательного аппарата с ракетами и пулеметами, так как военные роботы пока не могут принимать решений без оператора. Детище Александра Ребена решает само — навредить человеку или нет и если его AI поместить в боевого робота, то последствия будут ужасными.

Боевой робот

На первый взгляд может показаться, что ученый из Калифорнии является ярым противником роботов, который стремится доказать их опасность. Это далеко не так — Ребен давно известен как талантливый разработчик самых различных роботов и электронных устройств, среди которых робот-массажист, музыкальная шкатулка, использующая для работы энергию солнца и робот-собеседник для стеснительных людей. Создание «жестокого» робота, по словам Александра, всего лишь попытка доказать человечеству, что к созданию существ с искусственным интеллектом нужно относиться очень осторожно и всегда заранее обдумывать все возможные варианты их поведения и варианты нейтрализации роботов.

Боевые роботы

Сегодня роботы еще не интегрировались в человеческое сообщество, но этот момент с каждым днем все ближе. Уже появились роботы-официанты, роботы-продавцы, а некоторые компании даже приняли на работу роботов-менеджеров. Созданная в Китае девушка-чатбот Сяоайс является другом миллионов людей во всем мире и помогает многим бороться с одиночеством.

Кстати, пример Сяоайс может быть очень полезен: чатбот с интеллектом от Microsoft, вел себя прилично, пока общался с собеседниками на китайском языке. Но стоило обучить Сяоайс английскому и тем самым открыть путь в Твиттер, робот изменился до неузнаваемости. Самообучающийся интеллект, который после обучения новому языку дали имя Тэй, почерпнул из Сети массу негатива, в том числе ругательства и шутки на расистские темы. Разработчики Сяоайс-Тэй были вынуждены остановить эксперимент, так как чатбот окончательно распоясался и стал несносным в общении.

Некогда основатель Microsoft, Билл Гейтс заявил, что роботы могут стать незаменимыми помощниками человека на производстве и дома, но как только они дорастут до сверхинтеллекта, предсказать их действия будет практически невозможно. В 2015 году астрофизик Стивен Хокинг, учредитель и генеральный директор Tesla и SpaceX Илон Маск и Стив Возняк, один из основателей Apple, подписали официальное письмо, в котором высказали свои опасения в связи с проектами, связанными с внедрением искусственного разума в военных роботов. По их мнению, использование AI в оборонной сфере приведет к новой эпохе гонок вооружений. Кроме этого, если подобные разработки попадут в руки к преступникам или террористам, последствия будут просто ужасными. По мнению Хокинга, Маска и Возняка, эта проблема не является фантастической или надуманной и при современных тенденциях в мире робототехники самые неблагоприятные сценарии могут наступить уже в ближайшие годы.

Пока нет комментариев... Стань первым!