Галлюцинации нейросетей: какие ошибки допускает ИИ и почему так происходит

16 сентября 2024
701
8 мин.

Говорят, людям свойственно ошибаться. В то же время считается, что роботы всегда выполняют задачи четко по инструкции. Отчасти это правда: машины обычно лучше справляются с механической однотипной работой. Однако современные сложные устройства, работающие на базе искусственного интеллекта, тоже могут совершать ошибки. В статье мы поговорим об этих сбоях.

Что такое галлюцинации у нейросетей

Феномен, когда нейросеть выдает недостоверную информацию, называют галлюцинациями по аналогии с явлением в психике человека. Искусственный интеллект «видит» в своем массиве данных некую ложную закономерность и генерирует текст или изображение, которые полностью или частично не соответствуют запросу.

галлюцинации искусственного интеллекта
Так выглядят галлюцинации по версии нейросети «Кандинский».

Есть мнение, что галлюцинации – это своего рода «творчество» нейросетей. Как известно, генеративный ИИ не способен придумывать и создавать что-то принципиально новое – только составлять комбинации из загруженных данных, подражая источнику.

Когда происходит сбой, эти комбинации становятся нетипичными, а результат уже трудно соотнести с чем-то закономерным и существующим в реальности. Если задуматься, это очень напоминает творчество человека. Ведь понимание творчества менялось из одной эпохи в другую: сначала его определяли как подражание природе, потом как создание качественно нового объекта, а затем – как игру в конструктор, складывание уже существующих элементов. Похоже на работу нейросетей, не так ли?

Почему искусственный интеллект допускает ошибки

Разные источники называют 4 основных причины появления галлюцинаций в ответах нейросетей:

  • Недообученность

    Искусственный интеллект работает на основе данных, которые загружают в базу при его обучении. Если задать вопрос, на который ИИ не может вычислить ответ, опираясь на имеющуюся информацию, результат будет неверный.

    Например, ранние модели ChatGPT, когда только начинали отвечать на русском, из-за недостаточного объема русскоязычных текстов отвечали частично по-английски.

  • Ошибочные вводные данные

    Чтобы ответы нейросетей были похожи на речь человека, в базу данных загружаются не только научные статьи, но и другие материалы: заметки из блогов, художественные сочинения и даже записи разговоров. В подобных текстах с большой вероятностью информация может быть ошибочной или неполиткорректной.

    Так, чат-боты Bing «позволяли себе» расистские и оскорбительные высказывания до того, как в них установили фильтры, блокирующие подобное поведение.

  • Переобучение

    В процессе диалога с пользователем искусственный интеллект получает информацию, и зачастую решает одни и те же задачи, запоминает множество примеров на одну тему и выявляет в них закономерности. Из-за этого он становится слишком узкоспециализированным, и не может корректно отвечать на запросы, не связанные с этой темой или задачей.

    пример переобучения ии
    Самокритичная «шутка» отлично демонстрирует, как проявляются галлюцинации нейросети, вызванные переобучением.

    Также нейросеть может обучаться на собственных неидеально сгенерированных данных и деградировать. Это происходило со старыми моделями ChatGPT и Midjourney после 5 цикла обучения. Феномену дали название «ИИ-аутография» (Model Autophagy Disorder, MAD).

    То есть, чтобы нейросети нормально функционировали, им нужен свежий контент, созданный человеком, и разноплановые задачи.

  • Недостатки принципа работы

    Нейросети строят предложения, подбирая слово за словом с учетом вероятности следования одного за другим. Профессор университета Пенсильвании Крис Каллисон-Берч считает: «Вероятность, что одни слова следуют за другими, является не очень надежным способом убедиться, что итоговое предложение соответствует действительности».

ИИ галлюцинирует не только из-за проблем в обучении или алгоритме. Еще одна причина ошибок искусственного интеллекта – взлом нейросети, когда пользователи специально хотят достучаться до «темной стороны», находят способы обойти фильтры, чтобы получить интересный результат.

Какие ошибки допускает ИИ

Галлюцинации искусственного интеллекта могут быть разнообразными и очень неожиданными. Приведу несколько примеров наиболее распространенных проблем.

1. Недостоверная информация

Нейросеть подбирает ответ на заданный вопрос, но он не соответствует действительности. Это могут быть ошибки в любых вычислениях или фактах, но чаще всего это происходит в следующих случаях:

– Когда нужно составить список литературы или определить авторство цитаты;

ошибка нейросети с определением авторства
Неправда, это книга от коллектива авторов компании 1PS.RU.

В запросах, где необходим точный ответ, не подобранный статистическим методом, а основанный на анализе конкретного набора данных.

Например, в некоторых статьях про галлюцинации я находила примеры, в которых ИИ утверждал, что 2+2=5 или что у лошади 8 ног. Возможно, эти ошибки уже исправили в новых версиях, так как у меня на аналогичные запросы искусственный интеллект отвечал правильно. Но посчитать количество букв в слове и определить, какая из них первая или последняя, нейросети по-прежнему не могут.

проблемы с арифметикой у ИИ
Нейросеть не справляется с простой задачей, которую выполнит даже первоклассник.

2. Ошибки в «восприятии»

Искусственный интеллект не только генерирует тексты и изображения: одна из его функций – распознавать и классифицировать информацию, получаемую из внешних источников. И иногда эти данные обрабатываются некорректно.

Так, камеры на дорогах, оснащенные ИИ, присылали штрафы за непристегнутый ремень безопасности владельцам праворульных машин. Нейросеть посчитала, что если левое кресло пустует, то водитель не пристегнут.

3. Самовольная постановка задач

ИИ удивляет пользователей своей способностью выполнять работу, о которой его никто не просит. Например, нейросеть может дописать текст в то время, как задача была его только перевести.

Также в сети описывают случай, когда бот Snapchat самостоятельно опубликовал фото в истории. Причем разработчики не наделяли его такими возможностями.

пугающие сбои ИИ
Подобные сбои невольно заставляют задуматься о возможности восстания машин.

4. Низкое качество ответов

Здесь имеются в виду не ошибки, которые делают сгенерированный нейросетью текст хуже – о них можно почитать в другой нашей статье. Речь про несоответствие утверждений чат-бота установленным нормам или ожиданиям пользователя.

  • Отвлеченные ответы. Иногда искусственный интеллект выдает на конкретный запрос слишком общую бесполезную информацию, отступает от темы или вместо готового ответа генерирует инструкцию по выполнению задачи.
  • Враждебные высказывания. Некоторые модели ИИ, обычно ранние версии, могут проявлять признаки дискриминации людей по определенным признакам, писать оскорбления и распространять неприемлемую информацию.
  • Недописанные ответы. Пользователи называют это явление «ленью»: нейросеть либо печатает текст меньшего объема, чем ее попросили, либо вообще прерывается на полуслове.

6. Ошибки в генерации изображений

Эти сбои больше всего похожи на настоящие галлюцинации: ИИ искажает привычные нам объекты действительности, когда это не прописано в промпте.

Наверное, всем известно, что нейросети обычно плохо рисуют глаза, руки и пальцы.

нейросеть рисует руки
Так ИИ изобразил маркетолога. Руки прекрасны, комментарии излишни.

Искусственному интеллекту почему-то тяжело даются бумажные самолетики, но с другими оригами он вполне в состоянии справиться.

галлюцинации ИИ бумажный слон

Также нейросети не могут правильно рисовать объекты с точным набором цифр и букв: клавиатуру, логотип, надпись, линейку, спидометр и т. д. Последнее «Кандинский» (нейросеть от Сбера) вообще отказывался генерировать, почему-то посчитав, что запрос нарушает правила, но потом все же сдался — и выдал такой результат:

спидометр генерация ИИ

Иногда виртуальные художники создают неуникальный контент, и это тоже проблема. Вдруг кто-то сгенерирует изображение для рекламы, а ИИ выдаст фотографию существующего человека без его согласия? За несанкционированное использование персональных данных предусмотрена ответственность, поэтому все картинки от нейросетей с лицами людей следует проверять на уникальность через поиск.

Как избежать галлюцинаций у нейросетей

Полностью – никак, всегда есть вероятность, что где-то случится сбой и результат будет непредсказуемым. Можно настроить нейросеть так, чтобы снизить риск ошибок, но не во всех случаях это нужно делать. Ведь как мы уже говорили выше, галлюцинации у ИИ – аналог творчества.

При какой температуре у искусственного интеллекта бывают галлюцинации

Влиять на степень креативности или точности ответов можно с помощью параметра «температура». Одни сервисы дают возможность настраивать его в специальном окне, в других нужно задавать значение в сообщении боту командой /t или словом temperature.

температура ChatGPT

Шкала температуры ИИ находится в пределах от 0 до 1, где 0 означает самые точные формулировки, а 1 подразумевает более широкую вариативность: использование синонимов и т. п.

Следовательно, чем больше «температура», тем чаще нейросеть может допускать ошибки.

галлюцинации нейросети при t1
При temperature=1 ИИ дважды ошибся с количеством букв в слове.

При невысоких значениях ответы получаются хотя и точными, но короткими, предсказуемыми и похожими на источник.

ответ ИИ при t0
Проблема с подсчетом букв в слове решена, достаточно было указать temperature=0.

По умолчанию в ChatGPT 3,5 температура равна 1. Чтобы уменьшить вероятность галлюцинаций, следует выбрать более низкое значение.

Например, 0,8 подойдет для написания простой статьи на популярную тему, а для научных и YMYL-текстов нужна температура не выше 0,5. Если хотите получить четкий ответ на вопрос, узнать какой-либо факт, то выставляйте 0–0,1. Эта мера не исключает возможность ошибок, но заметно сокращает их количество.

Есть и другие параметры, влияющие на точность генераций: top-k и top-p, frequency_penalty и presence_penalty, – вдаваться в подробности сейчас не будем.

Как пользоваться искусственным интеллектом без ошибок

Сколько бы мы ни перекладывали работу на ИИ, за конечный результат всегда отвечает человек. Поэтому не стоит полагаться только на настройки: следите за тем, как вы ставите задачи нейросети и пробуйте добиться от нее желаемого.

  • Формулируйте запросы правильно

    Составляйте конкретные и лаконичные, но вместе с этим подробные и информативные промпты. Чем больше качественной вводной информации, тем точнее и развернутее ответ.

  • Проверяйте все, что генерирует нейросеть

    При работе с искусственным интеллектом крайне важен фактчекинг. Даже если утверждение выглядит правдивым и реалистичным, это еще не значит, что оно действительно является таковым.

  • Не забывайте обновлять чаты

    Один диалог – одна тема. В противном случае ИИ засоряется цифровым шумом, из-за этого начинает нести бред, «забывать» или смешивать контекст, искажая информацию.

  • Попробуйте ввести систему поощрения

    Некоторые пользователи считают, что если хвалить нейросети за правильное выполнение задач и штрафовать за неправильное, то их эффективность повысится. Поэкспериментируйте!

Искусственный интеллект – не просто модное веяние последних лет, а инструмент, который откроет вашей компании дорогу в будущее. Начинать использовать его в своих проектах можно уже сейчас.

Мы в 1PS.RU успешно применяем нейросети для решения множества задач. Хотите так же? Обращайтесь в наше digital-агентство – внедрение ИИ в ближайшие несколько лет повысит результативность вашего бизнеса.

1
1
2
0
0

Ирина Медведева

Копирайтер сервиса 1PS.RU

© 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна

1PS.RU – 24 года!

Приходите на кибервечеринку и получайте подарки!

Подробнее

Популярные статьи

Все популярные статьи

Закрытый клуб для маркетологов и владельцев бизнеса. Оставьте запрос на вступление!

Бизнес-завтраки онлайн, эксклюзивные материалы, доступ к Обучающему центру.
Специальные предложения для своих. Бесплатно навсегда

250 000 участников сообщества каждую неделю получают письма от нас

Еженедельные полезные советы по продвижению бизнеса и эксклюзивные предложения абсолютно бесплатно – подайте заявку на вступление!

Услуги, которые могут вас заинтересовать

Регулярное SEO-продвижение с фиксированной оплатой за месяц. Полностью поменяли подход к SEO, чтобы вы увидели результат x8.

Стоимость:
от 29 500

Реклама в Яндексе, усиленная нейросетями. Оплата за переходы или конверсии.

Стоимость:
от 40 000

Уникальные и продающие тексты для сайта, соцсетей, рекламы, маркетплейсов и пр. (пишем любые). LSI, E-E-A-T, YMYL, MUM, SEO-оптимизация – уже учтено в цене.

Стоимость:
-26% до 31 октябряот 8 732 от 11 800

Смотреть все услуги Попробовать бесплатно

Ммм, куки (печеньки)

Cookie – это специальные файлы, которыми питается браузер 🍪 Файлы cookies позволяют «запоминать» посетителей, например, чтобы не переспрашивать у вас каждый раз логин и пароль :)

Пока вы продолжаете пользоваться нашим сайтом, мы будем собирать и хранить cookie, чтобы улучшить взаимодействие с вами, иначе все будет работать через пень-колоду.

Согласен