ГлавнаяНовостиИсследователь искусственного интеллекта считает, что это может стать катастрофой для человечества, но...

Исследователь искусственного интеллекта считает, что это может стать катастрофой для человечества, но у него есть решение

Большая часть того, о чем мы говорим в отношении технологий, — это то, как они повлияют на будущее, будет ли оно хорошим или плохим, и как они изменят ситуацию. Это касается не только пользователей технологий, но и тех, кто их разрабатывает.

Ведущий исследователь искусственного интеллекта Стюарт Рассел настолько увлекся этой технологией, что стал соавтором учебника по ней. Однако в то же время он предупреждает общественность, что ИИ может иметь катастрофические последствия для человечества, но у него есть решение.

Совместимость с человеком

В своей новой книге «Совместимость с человеком» Рассел объясняет, что системы искусственного интеллекта оцениваются по тому, насколько хорошо они достигают своей конечной цели, будь то победа в видеоигре, написание текста или решение головоломок. Если стратегия соответствует цели, они ее используют.

Он считает, что эта система ведет к провалу, поскольку «цель», поставленная перед системой ИИ, — не единственное, что имеет значение. У автономного автомобиля есть «цель» путешествовать из одного места в другое, но жизнь пассажиров и пешеходов также имеет значение.

Другими словами, системы искусственного интеллекта заботятся только о том, что мы программируем как цель, в то время как людей заботят очень многие другие вещи, и именно это Рассел считает катастрофическим.

Эксперт по искусственному интеллекту рассказал в недавнем интервью об этих опасностях, которые он описывает в своей новой книге.

Он говорит о проблеме «царя Мидаса»: получить все именно так, как вы просили. «Итак, если это шахматная программа, вы ставите перед ней цель победить противника или выиграть игру. Если это беспилотный автомобиль, пассажир ставит цель, [например] «Я хочу быть в аэропорту», ​​— объяснил Рассел.

«Проблема возникает, когда системы становятся более интеллектуальными. Если вы поставите неправильную цель, то преследующая ее система может предпринять действия, которыми вы крайне недовольны», — отметил он.

Новости Ai Disatrous Humanity Internal

Когда нас спрашивают, почему мы не можем просто запрограммировать все то, что мы не имеем в виду, например, не нарушать законы, никого не убивать и т. д., Рассел сравнивает это с попыткой написать налоговое законодательство. Люди всегда придумывают способы обойти налоговое законодательство.

Рассел говорит: «Неважно, как сильно вы пытаетесь установить ограничения и правила вокруг поведения системы. Если он умнее вас, он найдет способ сделать то, что хочет». И он считает, что это только усугубит ситуацию.

Вот почему он считает, что нам нужно отказаться от способа настройки ИИ. Рассел считает, что вместо указания фиксированного объекта система ИИ должна иметь «конституционное требование о том, чтобы она приносила пользу людям».

«Но он знает, что не знает, что это значит», — продолжает он. «Он не знает наших предпочтений. И он знает, что не знает наших предпочтений относительно того, как должно развиваться будущее.

«Итак, вы получаете совершенно другое поведение. По сути, машины подчиняются людям. Они спрашивают, прежде чем делать что-то, что может навредить части мира».

Заблуждение об искусственном интеллекте

Рассел также считает, что «существует общее заблуждение об искусственном интеллекте, которое пропагандируется Голливудом из соображений наличия интересных сюжетов и средствами массовой информации, потому что они, похоже, хотят поместить изображения роботов-Терминаторов в каждую статью [виноваты, как обвиняемые в этом». статья] — то, что нам нужно беспокоиться об этом сознании, что каким-то образом эти машины случайно обретут сознание, а затем они возненавидят всех и попытаются нас убить».

Вместо этого, по его мнению, нам следует беспокоиться о «компетентном и эффективном поведении в мире». Если машины перехитрили нас, передумали нас в реальном мире, нам придется выяснить, как нам гарантировать, что они всегда действуют только от нашего имени, а не вопреки нашим интересам».

Что вы думаете о нынешнем использовании ИИ? Думаете ли вы, что это будет катастрофой для нашего будущего? Считаете ли вы, что решение Рассела положит конец этой возможности? Расскажите нам, что вы думаете в комментариях ниже.

ПОХОЖИЕ СТАТЬИ

Популярные записи