Элон Маск прав насчет угрозы ИИ, но ошибается в том, чем именно это грозит

2016-01-18
Элон Маск прав насчет угрозы ИИ, но ошибается в том, чем именно это грозит

Биолог-эволюционист Сюзан Садедин (Suzanne Sadedin) рассказывает, насколько правы Стивен Хокинг (Stephen Hawking) и Элон Маск (Elon Musk) насчет угрозы, исходящей от искусственного интеллекта.

Элон Маск и Стивен Хокинг правы – ИИ опасен. Но они ужасно ошибаются в том, чем именно он грозен.

Существует два наиболее вероятных исхода:

1. ИИ уничтожит себя, человечество и всю жизнь на Земле. Вероятно, значительно раньше, чем через 1000 лет.

2. Человечество радикально меняет свой подход в сторону, предположим, трансчеловеческих модификаций, и мы успешно сливаемся с ИИ. И достигаем звезд.

Сейчас мы движемся в сторону первого исхода, но еще можем это изменить. При всем уважении к Маску, его план по демократизации ИИ только приближает первый вариант будущего. И вот почему.

В некотором роде человечество уже создает своего рода искусственный интеллект в течение нескольких веков. Это системы, которые приобретают всевозможные функции. Они создают собственные внутренние структуры и правила, а люди выполняют задачи, для которых необходим разум, но которые так или иначе выходят из систем. Цели, способы поведения и ценности этих систем зачастую сильно отличаются от человеческих.

Любую нацию, корпорацию или организацию можно назвать таким искусственным интеллектом, ведь они создаются, развиваются, имеют определенную линию поведения, нацеленную на результат, так же, как и ИИ.

К примеру, мы часто говорим: «США сделали что-то», а это значит абсолютно не то же самое, что «население США сделало что-то» или «президент США сделал что-то», или даже «правительство США сделало что-то».

Эти системы могут действовать безжалостно в отношении отдельных личностей. И такое поведение зачастую является преимуществом, позволяющим выжить в условиях конкуренции. Они конкурируют за сегмент рынка, прибыль и степень воздействия, а также за деньги и власть. Таким образом эти системы развиваются. Новые организации, менее успешные и крупные, повторяют поведение доминантов, что ставит их в рамки теории Дарвина, как давно заметил Милтон Фридман (Milton Friedman).

До недавнего времени организации полагались на согласие человека и его участие; решения в конечном итоге всегда принимал человеческий мозг – будь то решение о производстве 600 резиновых уточек или о сбросе атомной бомбы. Таким образом, их конкурентоспособность и успех были несколько ограничены человеческими ценностями и моралью.

С появлением технологии обучения машин все изменилось. Теперь у нас есть алгоритмы, которые могут принимать комплексные решения практически в любой области быстрее и лучше, чем любой человек. Они применяются для решения проблем с большими данными, которые находятся далеко за пределами человеческого понимания. Тем не менее, эти алгоритмы в некоторых отношениях все еще примитивны. Они предназначены для оптимизации определенных параметров, конкретных наборов данных, но они не учитывают сложности реального мира и долгосрочные последствия того или иного выбора.

Алгоритмы обучения машин чаще всего действуют в качестве мозговых центров: они занимаются сложными вычислениями, а люди действуют как посланники и посредники между ними.

Такое положение вещей имеет и свои преимущества: мы становимся быстрее, продуктивнее и результативнее. Но мы должны понимать, что это ведет к постепенному лишению силы или власти. Почему?

С улучшением машинных алгоритмов они постепенно будут интегрироваться друг с другом для формирования единой эффективной конкурентоспособной системы, а это уже приближается к более традиционным определениям ИИ. Удаление человека из цепочки принятия решений станет просто побочным эффектом.

Люди имеют нравственные сомнения, сопереживания, эгоизм, предубеждения и дальновидность – все это ограничивает конкурентную эффективность организаций, на которые мы работаем. Системами-победителями станут те, которые смогут устранить эти человеческие слабости (люди могут не считать это слабостями, но в процессе эволюции даже умение предвидеть результат может стать слабостью, если мешает процессу повышения конкурентоспособности).

Возможен также более сложный контроль над нашим доступом к информации – опять-таки по причине конкуренции. Невозможно бороться с тем, о чем ничего не знаешь. В некотором роде это уже происходит: непрекращающиеся битвы между правительствами и корпорациями за влияние и регулирование информации в Интернете.

Итог: ИИ будет становиться более влиятельным, а люди свое влияние будут терять. Но кому какая разница?

Вот одна большая проблема такого сценария: такие искусственные интеллекты развиваются в условиях естественного отбора в глобальном масштабе подключенного мира. Одной из бед естественного отбора является «трагедия общин» – ситуация, когда несколько субъектов вынуждены делить ограниченные ресурсы. Каждый из них стремится получить больше, чем составляет его доля, но если так начнут делать многие – ресурс будет уничтожен и проиграют все.

К сожалению, в большинстве случаев субъекты не могут доверять друг другу. Каждый считает, что другие злоупотребляют ресурсами и, как результат, делают также.

Люди – вероятно, единственный вид, способный действовать, учитывая фактор «трагедии общин», потому что мы создали особенную структуру сотрудничества, которая создает сильные доверительные отношения и социальные контракты. Нет абсолютно никаких оснований полагать, что ИИ, который мы сейчас создаем, будут разделять человеческий дух сотрудничества; с их точки зрения, это просто одна из человеческих слабостей, которая может быть устранена для достижения конкурентного преимущества.

Наш вид развил эту «слабость» в результате племенного образа жизни, когда люди на себе испытывали «трагедию общин» в малых масштабах: те, кто не мог сотрудничать, теряли все. Эволюция наших организаций имеет противоположную траекторию: они конкурируют в очень взаимосвязанном мире с богатыми ресурсами, в мире, где экспоненциальный рост не только возможен, но и ожидаем.

Новые и только развивающиеся организации никогда не переживали «трагедию общин», поэтому у них нет стимула для создания эффективных путей её преодоления.

Обеспечение открытого доступа к технологиям обучения машин, как предлагает Маск, лишь усилит конкуренцию среди ИИ. Если бы за мировое доминирование боролись лишь несколько ИИ, возможно, они смогли бы координировать свои действия во избежание взаимного уничтожения. Но когда таких ИИ миллионы, проблема такой координации в долгосрочной перспективе становится неразрешимой.

Но без серьезного изменения системного подхода мы будем постепенно устранены от принятия важных решений и получим доступ лишь к ограниченному, а значит – необъективному объему информации.

В мире ограниченных ресурсов и экономики, основанной на экспоненциальном росте, мы неизбежно столкнемся с новой, уже глобальной «трагедией общин». Сможет ли наш «правящий» ИИ справиться с этим явлением? Будет ли ему это нужно?

 

По материалам: qz.com
Переведено: smileexpo.ru

Подпишитесь на новости! Robotics Expo
Будьте в курсе актуальных новостей индустрии, получайте только полезную информацию!
купитьбилет