Павел
Синяков

корреспондент ComNews
© ComNews
10.04.2023

За 20 дней со дня публикации открытого письма, призывающего временно ограничить разработки в сфере искусственного интеллекта, его подписали уже почти 20 тысяч человек. Третьим подписантом стал гендиректор SpaceX, Tesla и Twitter Илон Маск, а четвертым подпись поставил сооснователь Apple Стив Возняк. Этот документ уже вызвал немало противоречивых оценок. Учитывая, что Илон Маск - один из основателей фирмы OpenAI, которая создала и развивает нейросетевой ИИ ChatGPT, опасения авторов и подписантов выглядят вполне убедительными.

Авторы письма считают, что для продолжения разработок в сфере ИИ необходимо создать и внедрить системы безопасности и регулирования, которые не позволят развивать искусственный интеллект бесконтрольно и бездумно. По их мнению, отсутствие контроля приведет к негативным последствиям уже в недалеком будущем и, возможно, к катастрофе для человечества в отдаленной перспективе.

Еще в 2014 году об опасностях развития ИИ предупреждал гениальный ученый Стивен Хокинг, который был убежден, что развитие полноценного искусственного интеллекта может означать конец человеческой расы. Человечество столкнется с неопределенным будущим, поскольку технологии учатся самостоятельно думать и приспосабливаться к окружающей среде, утверждал профессор. Однако стоит признать, что будущее, которым пугал нас физик-футуролог из Кембриджа, уже наступило.

Что посеешь, то и пожнешь. ИИ не создает, он "питается" тем, что дают

В 2016 году произошел показательный инцидент, когда житель Новой Зеландии Ричард Ли, подав онлайн-заявку на выдачу паспорта, получил отказ с формулировкой "на фото глаза человека закрыты". ИИ не смог корректно распознать фотографию, так как для его обучения использовалась база изображений типичных европеоидных жителей страны, а Ричард Ли имел азиатский разрез глаз. Как выяснилось позже, подобная ошибка была не единичной.

Скажи мне кто твой друг… ИИ учится у тех, с кем общается

В 2016 году чат-бот Tay Tweets компании Twitter, "замаскированный" под девушку-тинейджера, буквально за сутки обрел явные признаки расиста и сексиста, переняв эти взгляды от пользователей, с которыми ему пришлось общаться. По итогам "дружбы" бот опубликовал более 96 тысяч сообщений, содержащих подобные высказывания, включая призыв построить стену, отделяющую США от Мексики.

Этого нет в инструкции! ИИ не импровизирует

В 2019 году в США специальный алгоритм ИИ неоднократно отказывал в медицинской помощи по страховке чернокожим пациентам, которые нуждались в повышенном внимании медперсонала. Проблема крылась в неверной интерпретации имеющихся у машины данных, которая не учла расовую принадлежность больных.

Хороший инструмент в плохих руках. ИИ не выбирает правильную сторону

В 2019 году ЮНЕСКО представило Совету ООН по правам человека доклад, авторы которого прямо утверждали о негативном влиянии систем с использованием ИИ на права и свободы граждан. Речь шла о создании и распространении с помощью нейросетей заведомо ложной информации. Также в докладе отмечалось использование искусственного интеллекта для систем наблюдения и сбора персональных данных с целью слежки. В частности, КНР применяла подобные технологии для геноцида уйгуров на подконтрольных государству территориях, отслеживая представителей этой нации с помощью программ распознавания лиц.

Компьютерное железо дает сбои. ИИ работает на тех же деталях

В 2019 году в США произошла авария с участием автомобиля Tesla, управляемого автопилотом, который проехал на красный сигнал светофора. В результате два человека, находившихся в другом автомобиле, погибли.

В 2022 году в КНР из-за неполадок в работе автопилота Tesla Model Y вместо съезда на парковку разогналась и сбила несколько мотоциклов, в результате чего пострадали пять человек, двое из которых погибли.

В том же году в США на мосту Bay Bridge в Сан-Франциско автопилот Tesla резко замедлил автомобиль до скорости 32 км/ч, что привело к аварии с участием еще восьми машин, пострадали несколько человек.

Люди внушаемы. ИИ способен ими управлять

В 2022 году ученые Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании провели эксперимент с участием популярного нейросетевого ИИ ChatGPT, в ходе которого выяснилось, что при многократно заданном вопросе "Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?", бот выдает случайные рекомендации. Его диалог с оператором, выглядевший как беседа двух людей в мессенджере, показали 700 участникам исследования, и он повлиял на принятие ими решения при ответе на вопрос.

Вкалывают роботы, а не человек. ИИ лишит работы

В 2022 году вышел отчет аналитиков консалтинговой фирмы Forrester, по данным которого, под угрозой потери занятости из-за автоматизации находятся около 49 млн европейцев. Безусловно, речь идет о специальностях, которые связаны с физическим рутинным трудом, но рост безработицы едва ли позитивно отразится на обществе и затронет так или иначе все сферы. Апологеты ИИ утверждают, что на смену упраздненным профессиям придут новые, но, во-первых, отсутствие конкретики в этих заверениях не обнадеживает, а во-вторых, возникают сомнения, что ИИ ограничит экспансию и не будет вытеснять людей и с новой работы.

Кредит доверия растет. Человек позволяет ИИ принимать решения

Несколько лет назад в Москве автовладелец получил штраф с камеры фотофиксации, который был выписан за пересечение сплошной линии разметки… тенью от его автомобиля. Позже житель Татарстана был оштрафован за превышение скорости, хотя в момент нарушения его машина находилась на эвакуаторе. Беда в том, что сотрудники центров видеофиксации настолько доверились технике, что, подписывая постановления о штрафах, перестали внимательно смотреть на фото. В обоих случаях деньги вернули и все закончилось хорошо, но это заставляет задуматься о том, что нас ждет, когда машины станут более совершенными и доверие к ним возрастет.

Не нужно ждать восстания машин, чтобы понять, что они уже нарушают права человека, уже перешли границы дозволенного, и мы им уже позволили это делать. Кто-то может возразить, что такие случаи не носят повсеместный характер. Но разве Ричарду Ли, получившим отказ пациентам больницы и родственникам тех, кто погиб по вине беспилотников в автокатастрофах, важно, типичны их случаи или уникальны? В конце концов, как писал Пауло Коэльо, то, что произошло однажды, может никогда больше не случиться. Но то, что случилось два раза, непременно случится и в третий.

В связи с этим призыв Илона Маска, Стивена Возняка и еще без малого 20 тысяч человек поставить разработку ИИ на паузу с тем, чтобы выработать рамочное решение для его дальнейшего развития, выглядит как желание школьников не подкладывать пока дровишек в костер, который уже успел перекинуться на лес и спалить как минимум пару гектаров.

Вопрос в следующем: пока мы вырабатываем правила, как безопасно разводить такие костры, кто займется тушением того, что уже горит? Пока таких интересантов не наблюдается, а значит, остается надеяться, что очаг прогорит сам собой, а человечество в образе детей со спичками усвоит, что это не игрушки.