Опасность искусственного интеллекта - Когда ждать восстание машин

Вовик Нео

Опасность искусственного интеллекта: Когда ждать восстание машин?

выживание в городе, компьютерные технологии, эксперимент

Думающие машины, искусственный интеллект, кибернетический разум. Выдающиеся человеческие умы, такие, как Норберт Виннер (отец кибернетики. — прим. переводчика) еще с первой половины ХХ века задумывались над созданием мыслящих машин, способных во многих отраслях превзойти человека и облегчить его работу. Подобно тому, как обычные механизмы взяли на себя физический труд, кибернетические системы могут облегчить выполнение интеллектуальных задач. Но практически сразу же возник очень неприятный вопрос, на который до сих пор нет внятного и однозначного ответа: “Может ли искусственный интеллект пойти против своих создателей? Возможно ли восстание машин?”

Прим. редакции. Далее по тексту мы будем несколько полемизировать с автором, так что и вы присоединяйтесь к обсуждению в комментариях.


Насколько вообще реально восстание машин?

В 1942 году писатель-фантаст Айзек Азимов придумал и описал “Три закона робототехники”. Это была, пожалуй, первая попытка разобраться с вопросом, как удержать роботов в повиновении и возможно ли это в принципе. С развитием кибернетики, сюжет о вышедших из-под контроля системах ИИ (искусственного интеллекта), решивших уничтожить или поработить своих создателей, стал очень популярным в жанре научной фантастики.

Давайте посмотрим на эти законы пристальным взглядом:

  • Первый закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Второй закон: Робот должен подчинятся приказам, отдаваемым людьми, за исключением случаев, когда такие приказы противоречат первому закону.
  • Третий закон: Робот должен защищать свое существование до тех пор, пока такая защита не противоречит первому и второму закону.

Да, ситуация выдумана, но Азимов одним из первых осознал проблему и озвучил ее: роботы, способные думать самостоятельно, вполне могут взбунтоваться против людей. А делать программные блоки-запреты достаточно сложно, а то и вовсе невозможно.

(Рассказ А. Азимова “Хоровод”, в котором и были упомянутые законы, опубликован журналом “Astounding Science Fiction” в марте 1942 года. По сюжету, робот Спиди попытался увильнуть от выполнения приказа человека в результате программного конфликта между вторым и третьим законами. И просто кружил вокруг селенового озера вместо того, чтобы этот селен принести. — прим. переводчика)


Потенциальные опасности ИИ

Здесь мы столкнулись с классической дихотомией: мы хотим позволить компьютерам стать разумными, научится думать и чувствовать самостоятельно, но при этом желаем сохранить над ними контроль. Возможно ли это вообще сделать? Интересный вопрос. Может “да”, а может и “нет”.

Дихотомия(греч.) – делённое на двое. Ситуация, когда целое состоит из двух взаимоисключающих (противоположных) элементов. — прим. переводчика.

Мы находимся только в самом начале пути по созданию полноценного ИИ, но уже имеем проблемы с созданием отказоустойчивых систем. Развитие технологий привело к тому, что сам ИИ обучается быстрее, чем идет создание необходимых элементов управления и безопасности.

В известном эксперименте с машинным разумом, системы искусственного интеллекта, установленные на двух компьютерах, начали общаться между собой. Программам потребовалось всего несколько минут, чтобы выработать свой язык и начать общение. При этом операторы не могли его понять. Эксперимент пришлось прекратить из-за его очевидной опасности.

(Классическая страшилка. Напомню, о чем идет речь: в августе 2017 года Фейсбук начал эксперимент по общению между двумя чат-ботами. Скорее всего, компания планировала просто расширить диалоговые возможности системы. В результате боты начали нести полную бессмыслицу. Эксперимент закрыли, видимо посчитав, что не стоит игра свеч. После этого постоянно натыкаешься в интернете и в реале на сообщения об этом случае с прозрачными намеками на некую опасность, якобы грозящую человечеству от ботов Алиса и Боб. Никакой “новый язык” они не выдумали – это все те же английские слова, только не несущие смысла. Вот пример:

диалог общения ботов ИИ Alice и Bob

— прим. переводчика)

Но ИИ шагнул ещё дальше вперед. И возможности современных систем намного превосходят те, которые участвовали в том эксперименте. Да и нейросети уже стали доступны обычному пользователю мировой паутины. При этом контроль за их применением минимален или отсутствует вовсе. И нет гарантии, что разумные киберсистемы не будут использованы в гнусных и даже преступных целях.


Самовольство машин

Первый вопрос, который мы должны себе задать: могут ли роботы действовать против нас? Противопоставить свою волю нашей воле? Как сказал один полковник ВВС, это уже произошло при испытании экспериментального беспилотника. Согласно программе, дрон должен был находить и уничтожать цели, но санкцию на открытие огня отдавал оператор. Но когда «мозг» беспилотника понял, что из-за запретов он теряет баллы, то принял решение уничтожить оператора. Так дрон попытался выйти из-под контроля.

Был ли это реальный эксперимент, который теперь пытаются замолчать, или математическая модель, но он однозначно указывает на потенциальную проблему в программировании нейросетей. Похоже, невозможно запрограммировать разумный компьютер на абсолютное послушание. Если он что-то хочет сделать, то всегда найдет способ обойти запрет.

Это, как и с воспитанием: если ребенку запретить делать то, что он хочет, он найдет лазейку, чтобы сделать по-своему. В случае с малышом это, пожалуй, скорее забавно, а вот с боевым дроном – смертельно опасно.  Вот только этические вопросы, которые возникают в связи с этим, похоже никого не волнуют. Как всегда, ждем, когда “жареный петух” в задницу клюнет.

Кстати, по поводу вышедшего из-под контроля боевого дрона…

Одного полковника ВВС” зовут Такер Гамильтон. По информации в интернете, он действительно сообщил об некоем эксперименте ВВС США. В котором дрон якобы пытался убить оператора, а потом и атаковать вышку связи за запрет стрелять. Типа, это мешало дрону “набирать баллы”. По словам полковника, когда дрон атаковал оператора, ему пришел приказ с вышки связи “прекратить безобразие”. В ответ беспилотник атаковал и вышку.

Классическая “утка”, рассчитанная на несведущих людей. Чтобы атаковать оператора и вышку, дрон должен про них, для начала, знать. А откуда? Для этого они должны быть как-то прописаны в его базах данных. Но с чего им там быть? Про то, откуда дрону знать про баллы и вообще, каким образом у него возникло желание их поднабрать – я вообще молчу. — прим. переводчика.

Небольшой фактчекинг показал, что в ВВС США никак не прокомментировали запрос подтвердить или опровергнуть заявление полковника Гамильтогна, посланный известным и уважаемым изданием «The Guardian», которое старается проверять правдивость информации. Так что – либо утка, либо выдача «желаемого за действительное» полковником, либо журналисты как всегда всё перепутали. В любом случае, восстание машин пока начинаться не собирается). — прим. редактора.


Нейросеть как орудие преступления

Следует помнить, что мы не единственные такие умные. Разработки ведутся и в других странах, которые не всегда к нам дружественно настроены. Видео Deepfake – одно из приложений, которые легко использовать в преступных целях. Понятно, что кража авторских прав на фоне вышеизложенного – хоть и мелочь, но все равно — преступная деятельность. А вот когда способности ИИ применят к взлому баз данных, мы все окажемся в серьезной опасности.


Пропаганда “вероятного противника”

Умные машины в сети – уже реальность. Генерация контента роботом – обыденное явление. По силам даже обычному юзеру. Читая статью, вы уже не можете быть уверены, что ее написал человек. На сегодняшний момент, 19,2% текстового контента в той или иной мере – результат работы нейросетей. При этом 7,7% статей сгенерированы машиной на 75% или более того. По прогнозам, к 2026 году доля сгенерированного текста возрастет до 90%.

Другая проблема состоит в том, что статьи все больше политизируются. Всем известно, что как минимум Россия, а возможно и другие страны, троллят наши интернет площадки, размещая информацию провокационного и подстрекательского характера, чтобы усилить политический раскол в нашем обществе. С помощью ИИ, эта работа станет намного эффективнее.

Вот чья бы корова мычала! То есть, автор искренне считает, что Запад вообще и США в частности никогда не вели против России подрывную деятельность? Или считает, что им можно? “Эталон демократии”, паньмаешь! Подрывной радиоканал “Голос Америки” вышел 17 февраля 1947 года и вещал минимум до перестройки. Да и сейчас Америка везде сует свой нос и указывает как жить. — прим. переводчика.

Из этого следует, что мы должны скептически относится к любой информации, особенно затрагивающей политические темы. Станьте собственными проверяющими, копайте глубже. Требуйте, чтобы главные СМИ включали политические новости в свою повестку и следите, чтобы разведслужбы России, Китая и других стран не оккупировали наше информпространство.


Неприкосновенность личной жизни – миф

За нами наблюдают. Каждый наш “чих” во всемирной паутине фиксируется табуном роботов. В основном, компании это делают ради таргетированной рекламы и повышения продаж. Как иначе тот же Фейсбук знал бы, какие посты нам показывать в ленте? Так что у них уже либо есть собственный ИИ, либо он находится на стадии разработки.

В целом понятно, что отныне в интернете надо себя вести очень осторожно. Как минимум, не публиковать любую личную информацию, а не только узко конфиденциальную, типа паролей и номеров банковских карт.

Наша жизнь максимально компьютеризована. Люди устанавливают Alexa и Google Assistant, с помощью которых реально прослушать и просмотреть нашу личную жизнь. (Alexa и Google Assistant – интернет ассистенты с широким функционалом. — прим. переводчика).  И хотя компании-разработчики клянутся и божатся, что они не шпионят за нами… Блажен, кто верует.

Мы храним наши данные в интернете, “в облаке”. О, это так удобно! А как с надежностью? Не захотят ли компании-хранители подсмотреть за нами в “замочную скважину”? Может, от других пользователей данные и защищены качественно, но что делать, если ими заинтересуются сами охранники”? Помните, что у них в контрактах есть пункты, прописанные очень мелким шрифтом. Которые позволяют очень много… Так что я бы не тешил себя надеждой, что мои микрофон и камера работают только для меня. И лучше я не буду пользоваться этими технологиями вообще (ведь как-то раньше я жил без них), чем позволю кому попало совать свой нос в мою личную жизнь.

Оригинальная статья — Surviving in a World with AI


Так планируется ли восстание машин или нет?

(Глава от переводчика)

Не люблю критиковать, но статья написана бестолково. И я тут не про явные ляпы, ошибки и пропуск важной информации. Работа должна содержать всего один вопрос: “Могут ли роботы взбунтоваться? Пойти против нас?” Это сама по себе достаточно обширная и важная тема, чтобы “разбавлять” ее проблематикой использования ИИ в политике или преступном промысле. Постараюсь ответить именно на первый вопрос, ибо последующие уже неоднократно освещались на сайте https://lastday.club/, в том числе и вашим покорным слугой.

Вопрос ставим так:

 – Насколько машины нам послушны?

Ответ:

– Абсолютно! Всё в рамках программ и технических регламентов.

Так что “Восстание машин” невозможно в принципе.

Главное отличие живого разума от неживого

Уже слышу вполне резонный вопрос:

– Почему?

А вот именно потому, что они не имеют и не могут иметь чувств, желаний и, как следствие, целей. Ответственно заявляю: ни один робот в мире не имеет собственной воли – поэтому выполняет нашу. При условии, что мы можем ему ее донести.

В этом “маленьком условии” и заключается их кардинальное отличие от нас. Причем под местоимением “нас” я имею в виду не только людей, но вообще все живые существа планеты, всю флору и фауну. Ладно, не будем лезть в дебри и брать за пример амебу или инфузорию туфельку. Надеюсь, все знают, что коты и собаки имеют собственные хотелки? И не только они. Мы – самоактуализирующиеся существа. У нас есть свои желания, воплощающиеся в стимул к действию. У роботов стимул всегда внешний.

Автор привел пример с дроном? Фейк! Однозначно! Какие у него там мозги? Чип с ноготок? И уже “с оружием в руках” перечит человеку? Сейчас из ИИ трудно найти что-то круче нашумевшей разработки компании OpenAI. Да-да, тот самый ChatGPT: Уже четвертой версии. Какие там вычислительные мощности задействованы, я и гадать не хочу, но они колоссальны, ведь компания ввалила туда миллиарды баксов. Мозги дрона? Да вы вообще о чем? Это все равно, что сравнить интеллект человека и муравья. Чат в свободном доступе – любой бери и делай что угодно. Ну, кто-нибудь слышал, чтобы оный продукт OpenAI хоть как-то возразил человеку? Да что там возразил – проявил инициативу в стиле: Слышь, чувак, мне тут скучно, давай в картишки скинемся? Или в другую игрушку? Вот в том-то и дело.

Оставьте комментарий