Искусственный интеллект: друг или враг?
Global Orthodox
Читать больше

Выступая 18 апреля 2023 года на круглом столе в НИУ ВШЭ, посвященном обсуждению правового регулирования и применения нейросетевых технологий, председатель Патриаршей комиссии по вопросам семьи, защиты материнства и детства иерей Феодор Лукьянов, заявил, что нужно разработать и закрепить на законодательном уровне введение дисклеймера для нейросетей, т.е. предупреждения о том, человек будет общаться с искусственным интеллектом. Кроме того, председатель Патриаршей комиссии считает, что из-за высокой опасности влияния на детскую психику, несовершеннолетних необходимо защитить от доступа к нейросетям. И наконец, как отметил он в своей презентации, «нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы».

Предложения отца Феодора, вызваны опасениями, которые озвучивают многочисленные узкопрофильные специалисты и ученые, непосредственно работающие с искусственным интеллектом. Несмотря на обещания менеджеров, среди которых есть весьма высокопоставленные представители IT и финансового сектора, что искусственный интеллект сделает всех нас свободнее и счастливее, с точки зрения хорошо осведомленных специалистов, все может оказаться совсем наоборот..

Что мы подразумеваем, говоря об искусственном интеллекте?  

Существуют три типа искусственного интеллекта, рассказал в интервью РИА «Новости» Даниил Макеев, руководитель IT-направления в Московском городском открытом колледже.  Все существующие относятся к ANI — «узкому ИИ», направленному на выполнение определенных заданий. Следующая ступень — AGI, общий искусственный интеллект, или, как его еще называют, «сильный ИИ». Он сможет решать любые задачи, доступные человеческому интеллекту. Логическим развитием этой системы должен стать ASI — «суперинтеллект». Такого пока не существует.

"Может показаться, что нейросеть ChatGPT это и есть тот самый ИИ, способный развить эмпатию, научиться думать, как человек, и действовать самостоятельно. Но это не так. Несмотря на то что нейросеть успешно проходит тесты на профессии и понимает юмор, это еще не AGI. ChatGPT не в состоянии улучшать себя и развиваться без помощи людей. И самое главное: нейросеть не умеет мыслить независимо"— подчеркивает Макеев.

Ученые — против

«Многие продолжают говорить о том, что искусственный интеллект умеет ровно то, чему мы его научили, но я в этом не уверена, - говорит профессор СПбГУ Татьяна Черниговская, специалист в области нейронауки и теории сознания. – Однажды я выступала в одной из компаний, которая занимается системами искусственного интеллекта. Специалисты рассказали, что у них две программы друг с другом коммуницировали и выработали собственный язык, который человек не мог понять. Разработчики испугались и отключили рубильник. Ученые отмечают, что искусственный разум становится умнее и может наступить момент, когда он вырвется. Но это не восстание машин, о чем писали все фантасты давным-давно. Если эта штука обретет «я» и станет личностью, у нее будут собственные планы и мотивы, куда мы не входим. Люди, которых это не пугает, говорят, что они смогут выключить их, и все на этом закончится. Но это разговор для детского сада! Если системы разовьются до такой высоты, о которой мы сейчас говорим — они нас вырубят, а не мы их. Мы должны либо поймать это до того, как все успеет заработать, либо наступит другая цивилизация, где мы — неизвестно кто».

В конце марта 2023 года американский банк Goldman Sachs опубликовал доклад. Авторы доклада Джозеф Бриггс и Девиш Коднани (Joseph Briggs, Devesh Kodnani) утверждают, что использование ИИ, способного генерировать текст и другие виды контента с подсказки пользователя, приведет к сокращению 300 миллионов рабочих мест во всем мире. В первую очередь пострадают юристы, специалисты в области финансов, офисные работники и администраторы. Те, кто занят физическим трудом (например, уборщики и сантехники), пострадают в меньшей степени. В целом же автоматизация, с использованием таких систем, может коснуться двух третей существующих рабочих мест.

Правда, куда больше экспертов по компьютерным технологиям пугает вероятность того, что ИИ выйдет из-под контроля. Илон Маск, генеральный директор SpaceX, Tesla и Twitter, сооснователь Apple Стив Возняк, аналитик Юваль Ной Харари и около тысячи других авторитетных представителей IT-индустрии подписали письмо с просьбой приостановить по меньшей мере на полгода разработку систем, мощнее GPT-4, чтобы подготовить протоколы безопасности.

В конце марта Элиезер Юдковский, американский ученый и один из ведущих специалистов в мире по работе с искусственным интеллектом, опубликовал статью в журнале Time, в которой утверждает, что искусственный интеллект (ИИ) представляет собой серьезную угрозу жизни всех людей на Земле. Ученый призвал отключить любые нейросети ради спасения человечества. При этом он отметил, что Илон Маск и Стив Возняк, оценивают ситуацию недостаточно серьезно. «Я считаю, что нейросети действительно могут стать опасными. Сейчас «игра» с этими системами может действительно зайти очень далеко, поскольку никто по-настоящему не знает, на что они способны».  

Искусственный интеллект, как бы он ни был полезен и востребован, может нести опасность, считает Татьяна Черниговская. «Я вхожу в экспертный совет по методологии интеллекта при президиуме РАН. Тревога по поводу цифровых технологий в этих кругах имеет основания. Может ли у искусственного интеллекта появиться своё “я”, (“самость”,“self”)? Да, может. А человечество об этом узнает? Нет!»  

Татьяна Черниговская рассказала, что в 2018 году, во время шахматного турнира между программами, программа под названием AlphaZero разгромила другую, которая называется Stockfish. Нейросети, уточнила она, сыграли миллион партий, обучаясь в процессе игры. AlphaZero перебирала всего 80 тысяч операций в секунду, а Stockfish — 70 миллионов. Казалось бы, более слабая программа выиграла, поскольку использовала другую стратегию — придумала себе «искусственную интуицию». Профессионалы сказали, что это инопланетная игра, потому что так никто и никогда не играл в шахматы. «Это похоже на когнитивную атаку на нашу цивилизацию!», - говорит ученый.

Но главная гипотетическая опасность, на которую указывает известный российский адвокат Анатолий Кучерена (РГ, 11.04.23), заключается в том, что ИИ вполне может выйти из-под контроля человека и начать действовать "по собственному усмотрению" в военной сфере. «Будучи изначально запрограммированным на победу в грядущей войне, он сам и развяжет эту войну в тот момент, когда сочтет, что достигнуто соотношение сил, достаточное для гарантированного уничтожения противника. И если Джон Кеннеди и Никита Хрущев, познавшие на собственном опыте, какие страдания несет людям война, нашли в себе силы остановиться перед роковой чертой в дни "карибского кризиса", то ИИ, начисто лишенный такого рода эмоций, недрогнувший рукой доведет дело до конца».

«Другой сценарий, особенно тревожащий меня как адвоката, - это не только установление с помощью ИИ тотального контроля за жизнью человека (это уже повсеместно происходит), но и манипулирование этой жизнью. Уже сегодня ИИ демонстрирует удивительные способности прогнозировать будущее. Причем это касается не только курса акций или изменения спроса и предложения, но и военно-политических событий. Возникает вопрос: а не приведет ли это к тому, что ИИ будет навязывать как отдельному человеку, так и человечеству в целом именно тот образ мышления и жизни и те сценарии развития, которые представляются ему желательными? Ведь люди, включая политических деятелей и военных руководителей, принимают решения на основании получаемой ими информации. Всем памятна сфабрикованная Отто фон Бисмарком "Эмсская депеша", спровоцировавшая войну Франции и Пруссии в 1870 году. Или недавние "утечки из Пентагона", породившие во всем мире хаос и смятение. ИИ сможет выдавать такого рода "депеши" и "утечки", сфабрикованные на неотличимом от подлинников уровне, в неограниченном количестве».  

Уже сегодня обывателю трудно отличить, показывают ли ему на видео настоящего человека или результат неких технологических трюков. Андрей Свинцов, заместитель председателя Комитета ГД по информационной политике, информационным технологиям и связи, приводит в пример технологию deepfake, с помощью которой можно производить подмену лиц на видео- и фотоизображениях. «До недавнего времени человек мог отличить искусственный интеллект по шаблонным ответам. Но с учетом того, что за последние полгода технологии сделали какой-то космический рывок, через несколько месяцев уже ни один человек будет не в состоянии отличить, что есть компьютерная программа, а что — настоящий человек, — говорит Свинцов.

По данным, опубликованным на сайте Высшей Школы Экономики, в глобальной гонке ИИ-исследований с большим отрывом лидируют США и Китай, РФ занимает 15-е место с долей 2,4%.