a
b
c
d
FindNews.ru - новости, последние события, хроники.

Каждый десятый из тех, кто пользуется нейросетями, полностью доверяет их советам по финансовым, медицинским и юридическим вопросам

Люди используют нейросети для решения самых разных задач, в том числе для получения медицинских, финансовых и юридических консультаций. Каждый десятый из тех, кто прибегает к помощи искусственного интеллекта, готов полностью положиться на получаемую от него информацию по запрошенным темам. Такие данные показало исследование «Лаборатории Касперского»*. Об этом CNews сообщили представители «Лаборатории Касперского».

Что думают люди о рисках при использовании нейросетей. Каждый третий из тех, кто пользуется нейросетями, считает их безопасными, а большинство (67%) — либо полностью, либо частично небезопасными. Тех, кто не уверен в защищённости нейросетей, беспокоит возможная кража или утечка данных (этот риск назвали 63%), получение недостоверной или устаревшей информации (по мнению 60%), отсутствие стимула думать и принимать решения самостоятельно (это тревожит 54%), получение информации, которая может навредить, например здоровью или рабочим процессам (это пугает 51%), вероятность появления привычки общаться с нейросетью и потери потребности в общении с людьми (об этом сказали 38%).

Доверяй, но проверяй. Меры предосторожности при взаимодействии с нейросетями хотя бы иногда соблюдает подавляющее большинство (86%). Из них 63% не делятся персональными или конфиденциальными данными, 53% перепроверяют информацию, 49% не предоставляют доступы к файлам / фотогалерее на своих устройствах, 25% запрещают нейросетям использовать свои переписки для обучения моделей, а 21% вообще удаляют свои переписки с чат-ботами.

На смену ИИ-ассистентам идут ИИ-агенты. Общение с цифровыми ассистентами стало распространённой практикой, но в 2025 г. развитие получил новый тренд — применение ИИ-агентов. Они перестали быть инструментами исключительно разработчиков и теперь используются для решения множества интеллектуальных задач, причём не только рабочих, но и бытовых. В отличие от цифровых ассистентов, ИИ-агенты могут самостоятельно взаимодействовать с другими системами, например, веб-сайтами или файлами на диске и способны не только сгенерировать текст для ответа на вопрос, но и самостоятельно, исходя из контекста, принять решение, что необходимо сделать в конкретной ситуации — от отправки электронного письма до оплаты покупки. Хотя ИИ-агенты и имеют огромный потенциал для автоматизации рутины, их применение усугубляет некоторые имеющиеся риски, связанные с мошенничеством и вредоносным ПО, и создаёт новые цифровые угрозы.

«ИИ-агенты — это растущий тренд, в 2026 г. они буду развиваться еще активнее. Важно, чтобы и разработчики, и обычные пользователи знали о возможных рисках. Многие уже в курсе, что нейросети могут галлюцинировать, но существуют и другие проблемы, например промпт-инъекции. Число кибератак, в которых LLM — инструмент или цель, растет, поэтому нужно не только повышать осведомленность пользователей об угрозах, но и активно развивать системы для защиты от них, в том числе на базе машинного обучения», — сказал Владислав Тушканов, руководитель группы исследования технологий машинного обучения в «Лаборатории Касперского».

* Исследование «ИИ в жизни и на работе» проведено внутренним исследовательским центром «Лаборатории Касперского» летом 2025 г. в крупных городах России. Всего опрошен 1001 человек.

Поделиться Короткая ссылка

Наука и высокие технологии - другие новости