Стоит ли бояться человечеству искусственный интеллект?
Создать себе робота-помощника человек мечтал ещё в начале прошлого столетия. В 1924 году известный драматург Карел Чапек поставил в Лондоне пьесу под названием «Универсальные роботы», после чего понятие «робот» вошло в обиход, а люди заговорили об идее, как о заветной мечте.
В середине 50-х впервые появилось понятие искусственного интеллекта, конечно, ни о какой опасности тогда и речи не шло: мир грезил машинами-помощниками. И вот, наконец, в 1965 году такой помощник появился – программа по имени Элиза, которая могла говорить по-английски. Затем в 70-е появились система навигации GPS – очередной виток в развитии «умной» техники для человека, в 80-е появились первые самообучающиеся машины, которые могли примитивно, но всё же общаться с человеком. И, наконец, поворотной точкой можно считать программу «Дип Блю», которая умела играть в шахматы и которая обыграла человека – абсолютного чемпиона мира на тот период Гарри Каспарова.
Конечно, это была просто шахматная партия, но она впервые показала человечеству, что машина может быть умнее человека, а это опасно само по себе. Однако процесс эволюции интеллектуальной техники уже было не остановить.
Что такое «искусственный интеллект»?
Это одно из основополагающих направлений современной науки, занимающееся поиском способов обучения роботов и компьютеров мыслить по аналогии с человеком и принимать решения. Цель проекта заключается в создании для человека помощников в различных сферах экономики, которые могли бы выполнять рутинные действия, работать с большими объёмами информации, взяли бы на себя функции оптимального поиска маршрута, более точного и глубокого анализа в сфере медицины, торговли и т. п. Одним словом, человечество, как и сто лет назад, старается при помощи умных, мыслящих машин облегчить себе жизнь.
Надо сказать, что применение ИИ во многих сферах экономики действительно позволило поднять деятельность на принципиально новый качественный уровень. Например в медицине применение программных приложений на основе искусственного интеллекта помогает врачам точнее расшифровывать результаты ультразвуковых, томографических, рентгенологических снимков. При помощи ИИ проще подобрать наиболее подходящую схему лечения, поскольку программа, проанализировав все показания пациента и все возможные варианты лечения, выберет самый подходящий и сделает это за несколько минут.
Если говорить о торговле, то здесь иные программы отлично зарекомендовали себя. Значительно проще продавать товары людям, интересы которых известны, а выяснить это как раз и помогает искусственный интеллект. Ты зашёл на сайт любого магазина, просмотрел несколько товаров, задержался на каждой странице по нескольку минут и вот машина уже начинает рассылать тебе похожие предложения.
При этом следует понимать, что на современном этапе машины ещё «не думают сами». Все решения, которые они предлагают, все советы, которые они дают, зависят исключительно от того, какого рода информация была заложена человеком. Чем больше такой информации было заложено, чем точнее поставлен задача по их обработке, тем больше готовых решений может предложить ИИ, однако выйти за рамки предложенного он в большинстве случаев еще не может.
Что такое нейронные сети?
Это новейшее направление в области искусственного интеллекта. Его основной принцип – моделирование биопроцессов, происходящих в головном мозге человека. Определённые результаты уже есть. Благодаря созданию первых моделей удалось научить машины распознавать голос и изображения, генерировать музыку и человеческую речь.
Какие возможности перед человечеством откроют машины с более разветвлёнными нейронными сетями? Отвечая на этот вопрос, профессор Лондонского университета Ник Лейн привёл такой пример. Сегодня датчик движения на стене никого не удивляет. Так вот, наделение его разветвленной сетью нейронов позволит не только распознавать что кто-то прошел мимо, он сможет распознавать, например, несет ли этот человек собой угрозу, или каково его самочувствие и т. п.
Очевидно, что рано или поздно уровень разветвлённости нейронных сетей приблизится к образцу человеческого мозга, машины научаться получать из окружающей среды гораздо больше информации, анализировать, думать самостоятельно. И тут вполне резонно возникает вопрос, а не станет ли искусственный интеллект такого уровня опасностью для самого человека?
Основные угрозы, связанные с искусственным интеллектом
По мнению учёных, работающих в области исследования искусственного интеллекта, бояться «восстания машин», как это показано в голливудских фантастических кинолентах, в ближайшие 30-50 лет точно не стоит. Такого совершенства техника ещё не достигла. Однако это не означает, что опасности вовсе нет. Просто угрозы стоит ждать с другой стороны. Программы, алгоритмы всё ещё создаёт человек, он же ставит цели и задачи перед роботом. Чем точнее всё это продумано и внедрено, тем качественнее технология работает и помогает человеку. Но что будет, если сработает элементарный человеческий фактор и в программу закрадётся ошибка или неточность, которую машина интерпретирует неправильно?
Автономное оружие
Такие виды техники уже созданы и тестируются в армии. Программное обеспечение позволяет, например, самолёту самостоятельно добраться до места, произвести разведку или установить место дислокации противника и нанести по нему боевой удар. А теперь представь, что произошел сбой в навигации или какой-либо из параметров наведения был недостаточно проработан и протестирован, и машина перепутала военную базу с деревней местных жителей.
Красноречивым примером опасности автономного оружия, о которой, кстати, всерьёз задумываются даже в Пентагоне, является случай, произошедший во время испытания новой навигационной системы в самолетах F-22. В небо поднялись 8 истребителей, в один момент испытуемая система одновременно отказала на всех самолётах. Результат – одна машина потеряна. Причина – забыли внести в программу информацию о линии перемены дат.
Социальные манипуляции и вторжение в личную жизнь
Социальные сети создавались как платформа для виртуального общения людей. При этом существуют правила общения, которые нарушать нельзя (призывать к насилию и т. п.). Кто следит за их соблюдением? Конечно, искусственный интеллект, который умеет определять фразы, являющиеся по правилам запрещёнными. А что ещё он умеет? Это знают только разработчики. Во всяком случае можно не сомневаться, что любая личная информация, специально или случайно оставленная в сети, анализируется и на её основе делаются выводы об увлечениях, предпочтениях, слабостях, взглядах, убеждениях. На основе этих очень индивидуальных особенностей можно формировать группы поддержки, например, политического лидера, подыскивая соответствующий электорат.
В умелых руках мошенников эта личная информация – подспорье для манипулирования и обмана. А если учесть, какое её количество утекает в сети в результате сбоев программного обеспечения в банках, отделениях здравоохранения, то картина становится ещё более удручающей.
Как избежать проблем?
Остановить технических прогресс нельзя. Чтобы опасность искусственного интеллекта не переросла в настоящую угрозу для существования человечества, необходимо:
- приступать к внедрению каждой более совершенной технологии исключительно после тщательного тестирования всех возможных, особенно негативных последствий;
- контроль за этим должно осуществлять исключительно государство;
- новые поколения ИИ должны создаваться по принципу равного участия в принятии решения машины и человека.