Илья
Коробейников

основатель компании RuCode
© ComNews
24.04.2023

Тема безопасности искусственного интеллекта занимает людей уже десятилетия: над ней размышляют как ученые, так и обыватели. Единой точки зрения общество не сформировало - кто-то опирается в своих рассуждениях в большей степени на возможности ИИ, а кто-то готов отказаться от столь стремительного развития технологий в угоду базовой безопасности. Главный же вопрос состоит не только в том, представляет ли ИИ угрозу, но и в том, как обезопасить себя от этой угрозы, если она не является мнимой, убежден основатель компании RuCode Илья Коробейников (написано совместно с ChatGPT).

Прежде всего, обозначу, что я с командой занимаюсь разработкой в области ИИ с 2019 года. За это время мы реализовали несколько успешных проектов. Один - из области анализа и прогнозирования на основе больших медицинских данных, этот проект стал финалистом отбора "Агентства стратегических инициатив". Второй - направлен на распознавание автотранспорта по фото на основе машинного зрения. Однако, несмотря на наличие собственного мнения по поводу наличия или отсутствия угрозы для человечества со стороны ИИ, эту статью я предпочитаю написать совместно с ChatGPT, чтобы сравнить мое и его мнение.

Представляет ли ИИ угрозу для человека?

Согласно исследованиям ВЦИОМ более половины россиян (55%) доверяют технологиям ИИ. Я же отношусь к меньшей части и считаю, что ИИ представляет угрозу для человека, а точнее для разных людей ИИ представляют разную угрозу. И чем дальше развивается эта технология, тем более очевидным становится, на мой взгляд, этот тезис.

Технологии ИИ появились давно: еще в 1943 году были описаны принципы работы нейросетей. Но, благодаря большому количеству данных и вычислительным мощностям, в нашу жизнь они вошли относительно недавно. Большие данные в совокупности с современными вычислительными мощностями позволяют проводить так называемое глубокое обучение (Deep Learning), во многом благодаря которому нейросети стали такими умными. Специалисты из этой области не любят термин ИИ за его киношность и неконкретность, а используют более конкретные термины: ML (Machine Learning - машинное обучение), Deep Learning, Big Data (большие данные), Data Science (наука о данных) и, конечно, просто нейросети.

Сейчас все гадают что произойдет, когда технологии ИИ войдут в нашу жизнь, все ждут некого прообраза SkyNet из фильма, но ИИ уже повсюду и не том виде, в котором большинство его ждали - они подобрались к нам сбоку. Нейросети уже используются:

  • в видеонаблюдении в метро для распознавания лиц,
  • камерах контроля скорости на дорогах для распознавания марки и номера машины,
  • в телефонах когда фотоаппарат подсвечивает лица "квадратиками" и делает автофокус,
  • в соцсетях когда мы видим рекламу, которую нам подбирает ИИ.

Несмотря на то, что создание ИИ - это результат деятельности человека и использования им определенных математических моделей, осознать до конца все про ИИ мы не можем. Есть специализированные научные центры, которые изучают вопрос, почему ИИ работает так, а не иначе: среди них Институт проблем управления РАН, МИРЭА - Российский технологический институт, Центр нейросетевых технологий Сеченовского университета, Центр нейросетевых технологий и искусственного интеллекта Балтийского федерального университета и т.д.

Пока же для нас нейросети представляются неким черным ящиком:

  • Количество нейронов и входных параметров в разных моделях может исчисляться миллионами. Так например, в выложенной в открытый доступ уменьшенной версии GPT-2 насчитывается 117 млн. параметров.
  • Количество данных во время обучения и использования также огромно.

Главное что умеют делать нейросети - находить закономерности в большом потоке информации. И если человеческий мозг может находить закономерности там, где их нет (характерен пример астрологии, нумерологии и прочей эзотерики, в психологии это называется "Эффект Голубя"), то нейросеть, если она правильно обучена, строго следует логике. Благодаря этому нейросети уже давно лучше человека распознают текст или речь, не говоря уже про преимущество нейросетей в игре в шахматы и Go.

На мой взгляд, нейросети представляют угрозу для человека по ряду причин:

  • В некоторых специальностях они уже заменяют человека и будут делать это всё больше за счет скорости и качества. В наибольшей зоне риска - ассистенты и менеджеры среднего звена.

    Кроме того, в ближайшем будущем нейросети научиться программировать "под ключ". Технические писатели (аналитики, архитекторы) будут писать на человеческом языке, что должна делать программа, а нейросеть будет выдавать готовый код/программу на любом нужном языке программирования. И специальность кодера (программиста низкого уровня) будет мало востребована. Для этого сейчас уже есть всё, вопрос только во времени распространения и допиливания этих технологий. Ярким примером этого направления является ChatGPT, но он далеко не единственный.

  • За счет того, что ИИ находят закономерности там, где обычный человек не может, ИИ могут стать эффективным инструментом в руках "плохих" людей. Также считает большинство опрошенных ВЦИОМ россиян, которые считают что угроза ИИ заключается в корыстных целях использования (61% респондентов) и мошеннических действиях с их использованием (62%).
  • Нейросети по косвенным признакам, в некоторые моменты, знают нас лучше чем мы сами себя. Это многих пугает. В Facebook есть такое понятие как "Цифровой аватар пользователя" - это ваша зеркальная копия, основанная на вашем поведении в соцсети.

А как сам ИИ отвечает на этот вопрос? Мой вопрос чату GPT звучал следующим образом: "Представляет ли ИИ угрозу для человека? Если да, то какие угрозы возможны?" Ответ получился следующим:

Существует несколько потенциальных угроз, связанных с развитием ИИ:

  1. Замена рабочих мест: ИИ может заменить людей на работах, которые могут быть выполнены ИИ. Это может привести к потере рабочих мест и ухудшению экономической ситуации для людей, которые теряют свои рабочие места.
  2. Нарушение приватности: ИИ может использоваться для сбора и манипуляции персональной информации, что может нарушать приватность людей и приводить к утечкам данных.
  3. Кибератаки: ИИ может использоваться для проведения кибератак, которые могут привести к утечкам данных, нарушению работы систем и другим проблемам.
  4. Распространение дезинформации: ИИ может использоваться для создания и распространения дезинформации, что может привести к нарушению доверия к информации и повышению уровня манипуляции.
  5. Непредсказуемость: ИИ может стать непредсказуемым и начать действовать вопреки интересам людей, если он не будет правильно разработан и использован.

В целом, ИИ может быть как полезным, так и вредным для людей, в зависимости от того, как он используется."

Какова польза искусственного интеллекта для человека и превышает ли она потенциальные угрозы?

Этот вопрос является, пожалуй, еще более обсуждаемым в обществе, нежели просто оценка наличия или отсутствия угрозы от ИИ. Иными словами, людей волнует, можем ли мы отказаться от ИИ, или польза от него столь высока, что лучше смириться с потенциальными угрозами.

Приведу топ-5 положительных эффектов по мнению ChatGPT:

  1. Улучшение медицинской диагностики и лечения: ИИ может помочь врачам более точно диагностировать заболевания и предлагать наиболее эффективные методы лечения. Это может привести к более быстрому выздоровлению пациентов и снижению затрат на здравоохранение.
  2. Улучшение образования: ИИ может помочь учителям индивидуализировать обучение для каждого ученика, учитывая его уровень знаний и способности. Это может привести к более эффективному обучению и повышению успеваемости учеников.
  3. Улучшение транспортной системы: ИИ может помочь улучшить безопасность и эффективность транспортной системы, например, путем управления трафиком и предотвращения аварий.
  4. Улучшение производственных процессов: ИИ может помочь оптимизировать производственные процессы, улучшить качество продукции и снизить затраты на производство. Это может привести к более эффективному использованию ресурсов и повышению конкурентоспособности компаний.
  5. Улучшение качества жизни: ИИ может помочь людям в повседневной жизни, например, путем создания умных домов, которые могут автоматически управлять освещением, отоплением и другими устройствами, а также предоставлять персонализированные рекомендации и услуги.

А вот топ-5 положительных эффектов согласно опросу ВЦИОМ:

  • сокращение временных затрат на выполнение рутинной и однообразной работы (65% опрошенных согласились с этим),
  • повышение производительности труда (65%),
  • облегчение решения сложных задач (58%),
  • повышение комфортности жизни (58%),
  • повышение уровня безопасности (57%).

Я часто шучу, что раньше все делалось во имя Бога, а теперь все делается во имя безопасности. В наше неспокойное время большие бюджеты будут выделяться в сфере безопасности, а где больше денег, там обычно всё растет, поэтому конечно ИИ будет активно развиваться в области безопасности. Нейросети уже активно используются в этой области, но их применение однозначно будет расти: анализ видео с камер наблюдений, анализ чатов и каналов, анализ интернет трафика, анализ аудио и видео звонков, анализ соцсетей и многое многое другое.

Таким образом, в текущей ситуации, когда:

  • повышена геополитическая конкуренция,
  • доступны большие данные,
  • в открытом доступе есть большинство архитектур нейросетей,
  • есть доступ к большим вычислительным мощностям,

ИИ будут развиваться вне зависимости чего-либо. Этот процесс уже не остановить. Можно регулировать только области и способы применения.

Превышает ли в итоге польза от применения искусственного интеллекта для человечества потенциальные угрозы? На мой взгляд, невозможно дать однозначный ответ на этот вопрос, поскольку это все субъективные величины, которые сложно сравнивать. Можно лишь утверждать о наличии рисков, которые можно учитывать или игнорировать.

Каковы тенденции развития ИИ?

Что же нас ждет в сфере развития ИИ в ближайшее время? Существуют следующие направления деятельности в ИИ:

  • разработка моделей нейросетей и их первичное обучение,
  • дообучение готовых моделей для какого-то промышленного применения.

Например, кто-то создал сеть по распознаванию фото, а кто взял ее и дообучил для определения пород кошек. На сегодняшний день это уже разные направления. Первое - это больше научная деятельность, а вторая - это больше прикладная инженерия. Я думаю, тренд на разделение ролей в этой области будет только усиливаться: видео, аудио, медицина, ЖКХ, психология, автопилотирование и т.д.

Умные системы в будущем, неизбежно, будут независимым наблюдателем и арбитром в спорах между людьми - при условии их открытости и непредвзятости. Частные примеры таких систем - камеры контроля скорости, с данными которых все сложнее спорить и тем более злиться на них. Но они еще не соответствуют всем критериям открытости и непредвзятости - например, имеется недостаток открытости архитектуры и алгоритмов.

Сейчас большинство моделей ИИ есть в открытом доступе. Есть несколько направлений, которые будут активно развиваться на их основе:

  • дообучение нейросетей для конкретных применений в разных областях,
  • комбинирование моделей - создание комплексных решений,
  • создание новых вычислительных микросхем специально для ИИ, где память и вычисления находятся в одном чипе по аналогии с биологическими нейросетями, поскольку они быстрее и энергоэффективнее,
  • создание рынка изготовления и продажи готовых датасетов, так как данные - это новая нефть, у которой есть свой рынок и свои биржи,
  • применение ИИ в военном деле с последующим переносом в гражданскую отрасль: дроны, анализ прослушки и шифрования, стратегия и моделирование, анализ спутниковых снимков и т.п.

В целом будет усиливаться экспансия во все отрасли деятельности человека - от высокомаржинальных к менее маржинальным отраслям.

С помощью нейросети человечество может приблизиться к пониманию самих себя: при помощи ИИ уже ведутся исследования мозга, строения и синтеза белков. Уверен, что эта область также будет активно развиваться. И мы сможем существенно продлить нашу жизнь и приблизиться к пониманию что же такое Разум и Сознание?

Как защитить человечество от угроз ИИ?

И еще один важный вопрос на повестке дня: какие меры требуется предпринять для предотвращения опасных сценариев развития ИИ. На мой взгляд, чтобы избежать угрозы, которые представляют собой ИИ, в первую очередь нужно повышать грамотность людей в этих технологиях: это позволит гораздо больше и глубже понимать возможности и угрозы нейросетей и работать на их предупреждение. Поэтому первое и самое главное - это массовое образование в области нейросетей.

Понятно, что технологии (и здесь речь не только об ИИ), высвобождают много специалистов, поэтому нужно создать условия для:

  • переобучения людей;
  • формирования для людей безусловного базового дохода.

На какие деньги это делать? Билл Гейтс, например, предлагает ввести дополнительные налоги на богатые технологические компании.

Важной мерой, которую нужно также предпринять, является законодательное регулирование применения ИИ для принятия решений в некоторых областях. Это позволит создать условия, при которых нейросети смогут выступать советниками, но окончательные решения будут приниматься людьми. Такими областями могут быть: суды, постановка медицинского анализа, законодательные решения и т.д. Пока в обществе доминирует мнение, что людьми лучше управлять людям.

Лучше всего на вопрос о том, как защититься от угроз ИИ, как ни странно, отвечает сам искусственный интеллект: "В целом, ИИ может быть как полезным, так и вредным для людей, в зависимости от того, как он используется. Поэтому важно разрабатывать этические и правовые стандарты для использования ИИ и принимать меры безопасности, чтобы минимизировать потенциальные угрозы".