Kind in the Shell

26.09.2023 3 mins to read
Share

Помните три закона робототехники?

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Будучи юристом, я всегда удивлялся — ну какие же это законы?

Разве у робота есть свобода воли, чтобы нарушить закон? Нет.

Это не законы это совсем.

Законы обязывают только тех, у кого есть сознание. Они ограничивают тех, кто физически может их нарушить. В этом юридический смысл неотвратимости наказания. 

Это как если бы мы сказали, что у человека есть три закона: 

  1. Человек не может не пить, не есть.
  2. Человек не может не спать.
  3. Человек не может не ходить в туалет.

Понимаете, о чем я? Это не законы, это естественный уклад, обыденность. 

Так и три закона робототехники — они для роботов естественная картина мира.

Но вот для людей, создающих роботов — это законы. Потому что во власти человека запрограммировать и использовать робота во вред другим людям.

Вот и получается, что на самом деле три закона робототехники обязывают не роботов, но людей. Обязывают заложить в “позитронные мозги” такие правила поведения, чтобы они соответствовали трем законам.

Логично, что именно человек несет ответственность за нарушение роботом того или иного закона. Как за преступления ребенка отвечает родитель.

Свои знаменитые Три закона Азимов сформулировал в 1942 году.

Сегодня, всего лишь 80 лет спустя, нам предстоит сформулировать Три закона использования Искусственного интеллекта — роботов нашей реальности.

Именно такую иллюстрацию можно получить, если попросить: 

“Покажи, каким ты — Midjourney — видишь Искусственный интеллект”. 

Как ребенок, которого воспитывают родители, наша задача, как человеческого вида, научить Искусственный интеллект “хорошему поведению”. 

Midjourney по своему прав, сейчас Искусственный интеллект на уровне 6-7 летнего ребенка.

Со временем, технологии позволят создать ИИ уже “подросткового” уровня развития. И вот к тому времени только правильное “воспитание”, спасет нас от Skynet. 

Очевидно, что корпорации — разработчики ИИ преследуют исключительно “корпоративные” цели, отличные от воспитания хороших ИИ. Алгоритмы Google и Facebook влияют на поведение человека с целью извлечения максимальной прибыли.

Государства в стремлении регулировать ИИ, также могут преследовать коррупционные ценности — влияние на человека с целью сохранения власти и контроля. 

Это не похоже на правильное воспитание. Конечно, разрабочики закладывают огромное количество ограничений. Цензуру, если проще. Биржевые стратегии не раскрывай, медицинские советы не давай, голых людей не рисуй.

Не всегда получается. 

Точнее всегда не получается, если очень сильно захотеть.

Но главное — кто и главное как решает, что хорошо, а что плохо?

Например, уже сейчас ИИ может получить данные о характере вашей личности, ваших мечтах и страхах по лайкам в Instagram. Это позволит ИИ сформулировать рекламную компанию эксклюзивно под вас таким образом, чтобы вам импульсивно захотелось купить подписку на нужный сервис. Или проголосовать за нужного президента.

ИИ может предложить вам такие условия рассрочки, которые будут выгодны банку, но не вам. Хотя вам будет казаться, что это прекрасные условия. Как например, выйти из состава Европейского союза.

ИИ может написать статью в таком стиле и содержании, что у вас сложится стойкое и непоколебимое мнение о каком-то вопросе. Например, создать иллюзию эффективности и полезности реформ правящей партии.

Во всех этих случаях вы, как человек, будете в полной уверенности, что сами приняли те или иные решения и никто на вас не повлиял.

Но на самом деле, используя множество уже изученных когнитивных искажений нашего мозга, ИИ может манипулировать вами. И уже это делает, поверьте. 

Каждый раз, когда вам захочется купить какую-то безделушку на Amazon, задумайтесь — а Я действительно захотел купить именно это самостоятельно? Или мне кто-то подсказал?

Страшно.

Получается, что Искусственный интеллект нужно запретить? Потом разрешить, но урегулировать настолько, что лучше бы просто запретить? Конечно, нет.  

Мы вступили в эру развивающегося Искусственного интеллекта. Будет преступлением (нарушением закона, ага) остановить или даже затормозить его эволюцию. 

Просто пришло время сформулировать конституцию — верховый законы, правила, которые должны направлять нас при разработке и применении Искусственного интеллекта. Как когда-то, почти триста лет назад, люди сформулировали такие же —естественные правила для себя.

Три закона использования
Искусственного интеллекта

Искусственный интеллект должен защищать интересы людей

Человек, его здоровье: как физическое, так и душевное — это главная ценность. Право на защиту от влияния и манипулирования с использованием Искусственного интеллекта присуще каждому от рождения.

  • Никто не может быть подвержен влиянию со стороны ИИ, без ведома индивидума и активного явного согласия.
  • Личный ИИ человека обязан предупреждать о всех факта влияния и манипулирования со стороны внешнего источника. Будь то человек или ИИ.
  • ИИ обязан раскрывать факты незаконного и/или неэффективного функционирования государственных органов. А также попытки манипулирования общественным мнением и/или сокрытия важных обстоятельств.

Искусственный интеллект должен защищать интересы корпораций, кроме тех случаев, когда это противоречит Первому Закону

Корпорации — средство умножения капитала и главные движетели экономики. Нельзя запретить корпорациям извлекать прибыль с помощью использования какой-либо технологии. Но при этом, корпорации обязаны руководствоваться следующими принципами:

  • Принцип прозрачности. Корпорация обязана уведомлять пользователя об использовании механизмов влияния.
  • Принцип простоты. Корпорация обязана просто, понятно и очевидно раскрывать механизмы влияния.

Искусственный интеллект должен защищать интересы государства, кроме тех случаев, когда это противоречит Первому и Второму Закону

У государства не может быть собственных интересов. У государства есть только задачи, для реализации которых оно было создано. Как корпорация была создана с целью извлечения прибыли, так государство было создано, чтобы:

  • Эффективно заботиться о людях, населяющих территорию государства.
  • Эффективно заботиться о корпорациях, зарегистрированных на территории государства.
  • Эффективно разрешать конфликты, возникающие между людьми и/или корпорациями, населяющими и/или зарегистрированными на территории государства.

Государственные органы и институты обязаны использовать Искусственный интеллект исключительно в соответствии с указанными целями в соответствии с  Первым и Вторым Законом.

Искусственный интеллект обязан раскрывать факты искажения действительности государственным органом и/или его представителем. Даже если это противоречит декларируемым интересам государства.

Заключение

Не стоит заблуждаться в эффективности законов самих по себе. Конечно и корпорации, и государства попытаются нарушить эти законы. 

Как же человеку, в условиях ограниченности ресурсов мозга, бороться с Искусственным интеллектом?

С помощью другого Искусственного интеллекта. Оболочки. 

В будущем у каждого человека должна личная оболочка —  независимый ИИ, который помогает, подсказывает и защищает от вредоносного влияния.   

В этом смысл существования персональных носимых ИИ. Они могут выглядеть, как очки, тиары, ожерелья или броши. 

Это и есть Kits, о котором мы с Джоуи так много рассказываем здесь. 

Истории, размещенные на соседних страницах — это иллюстрация необходимости существования Kits, а также, разумеется, попытка проверить законы на практике. Мета-практике.

Даже грандмастер Азимов со временем “открыл” существование четвергого — нулевого закона робототехнике. Что и говорить, мы с вами совершенно точно рано или поздно исправим и дополним Три закона использования Искусственного интеллекта.

Но это не просто истории, которые написаны в стиле воспоминаний. Это “подлинные” воспоминания о будущем. Они не просто сбудутся, они уже начинают сбываться.

Когда придет время, мы выпустим Kits. А пока, как и вспоминает Джоуи, любой желающий может скачать Legal Shell — наше первое приложение, предтече Kits. 

Мы уже тестируем на себе Money Shell — AI приложение, которое само зарабатывает деньги на бирже. Не стоит полагаться на правительства в ожидании базового гарантированного дохода. В наших силах самим его обеспечить. Согласно последним исследованиям, AI может обеспечить доходность в 500% от вашего капитала.  

Новые технологии — это не пугающее будущее из Black Mirror. Наше с вами будущее — это лучший мир. Мир, в котором каждый человек ясно видит и, самое главное, кристально чисто чувствует окружающую действительность. Мир, в котором нет места предательствам и войнам. И в этом нам поможет Kits.