© ComNews
02.02.2026

Люди используют нейросети для решения самых разных задач, в том числе для получения медицинских, финансовых и юридических консультаций. Каждый десятый из тех, кто прибегает к помощи искусственного интеллекта (ИИ), готов полностью положиться на получаемую от него информацию по запрошенным темам. Такие данные показало исследование "Лаборатории Касперского", которое компания представила на пресс-конференции, посвященной итогам 2025 г. и прогнозам на 2026 г. Исследование "ИИ в жизни и на работе" компания провела летом 2025 г. в крупных городах России. Всего опрошен 1001 человек.

Что думают люди о рисках при использовании нейросетей. Каждый третий из тех, кто пользуется нейросетями, считает их безопасными, а большинство (67%) - либо полностью, либо частично небезопасными. Тех, кто не уверен в защищенности нейросетей, беспокоит возможная кража или утечка данных (этот риск назвали 63%), получение недостоверной или устаревшей информации (по мнению 60%), отсутствие стимула думать и принимать решения самостоятельно (это тревожит 54%), получение информации, которая может навредить, например здоровью или рабочим процессам (это пугает 51%), вероятность появления привычки общаться с нейросетью и потери потребности в общении с людьми (об этом сказали 38%).

Доверяй, но проверяй. Меры предосторожности при взаимодействии с нейросетями хотя бы иногда соблюдает подавляющее большинство (86%). Из них 63% не делятся персональными или конфиденциальными данными, 53% перепроверяют информацию, 49% не предоставляют доступы к файлам / фотогалерее на своих устройствах, 25% запрещают нейросетям использовать свои переписки для обучения моделей, а 21% вообще удаляют свои переписки с чат-ботами.

На смену ИИ-ассистентам идут ИИ-агенты. Общение с цифровыми ассистентами стало распространенной практикой, но в 2025 году развитие получил новый тренд - применение ИИ-агентов. Они перестали быть инструментами исключительно разработчиков и теперь используются для решения множества интеллектуальных задач, причем не только рабочих, но и бытовых. В отличие от цифровых ассистентов, ИИ-агенты могут самостоятельно взаимодействовать с другими системами, например, веб-сайтами или файлами на диске и способны не только сгенерировать текст для ответа на вопрос, но и самостоятельно, исходя из контекста, принять решение, что необходимо сделать в конкретной ситуации - от отправки электронного письма до оплаты покупки. Хотя ИИ-агенты и имеют огромный потенциал для автоматизации рутины, их применение усугубляет некоторые имеющиеся риски, связанные с мошенничеством и вредоносным ПО, и создает новые цифровые угрозы.

"ИИ-агенты - это растущий тренд, в 2026 году они буду развиваться еще активнее. Важно, чтобы и разработчики, и обычные пользователи знали о возможных рисках. Многие уже в курсе, что нейросети могут галлюцинировать, но существуют и другие проблемы, например промпт-инъекции. Число кибератак, в которых LLM - инструмент или цель, растет, поэтому нужно не только повышать осведомленность пользователей об угрозах, но и активно развивать системы для защиты от них, в том числе на базе машинного обучения", - рассказывает Владислав Тушканов, руководитель группы исследования технологий машинного обучения в "Лаборатории Касперского".

Новости из связанных рубрик