Говорят, людям свойственно ошибаться. В то же время считается, что роботы всегда выполняют задачи четко по инструкции. Отчасти это правда: машины обычно лучше справляются с механической однотипной работой. Однако современные сложные устройства, работающие на базе искусственного интеллекта, тоже могут совершать ошибки. В статье мы поговорим об этих сбоях.
Что такое галлюцинации у нейросетей
Феномен, когда нейросеть выдает недостоверную информацию, называют галлюцинациями по аналогии с явлением в психике человека. Искусственный интеллект «видит» в своем массиве данных некую ложную закономерность и генерирует текст или изображение, которые полностью или частично не соответствуют запросу.
Так выглядят галлюцинации по версии нейросети «Кандинский».
Есть мнение, что галлюцинации – это своего рода «творчество» нейросетей. Как известно, генеративный ИИ не способен придумывать и создавать что-то принципиально новое – только составлять комбинации из загруженных данных, подражая источнику.
Когда происходит сбой, эти комбинации становятся нетипичными, а результат уже трудно соотнести с чем-то закономерным и существующим в реальности. Если задуматься, это очень напоминает творчество человека. Ведь понимание творчества менялось из одной эпохи в другую: сначала его определяли как подражание природе, потом как создание качественно нового объекта, а затем – как игру в конструктор, складывание уже существующих элементов. Похоже на работу нейросетей, не так ли?
Больше статей на схожую тематику:
Почему искусственный интеллект допускает ошибки
Разные источники называют 4 основных причины появления галлюцинаций в ответах нейросетей:
-
Недообученность
Искусственный интеллект работает на основе данных, которые загружают в базу при его обучении. Если задать вопрос, на который ИИ не может вычислить ответ, опираясь на имеющуюся информацию, результат будет неверный.
Например, ранние модели ChatGPT, когда только начинали отвечать на русском, из-за недостаточного объема русскоязычных текстов отвечали частично по-английски.
-
Ошибочные вводные данные
Чтобы ответы нейросетей были похожи на речь человека, в базу данных загружаются не только научные статьи, но и другие материалы: заметки из блогов, художественные сочинения и даже записи разговоров. В подобных текстах с большой вероятностью информация может быть ошибочной или неполиткорректной.
Так, чат-боты Bing «позволяли себе» расистские и оскорбительные высказывания до того, как в них установили фильтры, блокирующие подобное поведение.
-
Переобучение
В процессе диалога с пользователем искусственный интеллект получает информацию, и зачастую решает одни и те же задачи, запоминает множество примеров на одну тему и выявляет в них закономерности. Из-за этого он становится слишком узкоспециализированным, и не может корректно отвечать на запросы, не связанные с этой темой или задачей.
Самокритичная «шутка» отлично демонстрирует, как проявляются галлюцинации нейросети, вызванные переобучением.Также нейросеть может обучаться на собственных неидеально сгенерированных данных и деградировать. Это происходило со старыми моделями ChatGPT и Midjourney после 5 цикла обучения. Феномену дали название «ИИ-аутография» (Model Autophagy Disorder, MAD).
То есть, чтобы нейросети нормально функционировали, им нужен свежий контент, созданный человеком, и разноплановые задачи.
-
Недостатки принципа работы
Нейросети строят предложения, подбирая слово за словом с учетом вероятности следования одного за другим. Профессор университета Пенсильвании Крис Каллисон-Берч считает: «Вероятность, что одни слова следуют за другими, является не очень надежным способом убедиться, что итоговое предложение соответствует действительности».
ИИ галлюцинирует не только из-за проблем в обучении или алгоритме. Еще одна причина ошибок искусственного интеллекта – взлом нейросети, когда пользователи специально хотят достучаться до «темной стороны», находят способы обойти фильтры, чтобы получить интересный результат.
Примеры роста кликов, конверсий, заказов и прибыли:
Какие ошибки допускает ИИ
Галлюцинации искусственного интеллекта могут быть разнообразными и очень неожиданными. Приведу несколько примеров наиболее распространенных проблем.
1. Недостоверная информация
Нейросеть подбирает ответ на заданный вопрос, но он не соответствует действительности. Это могут быть ошибки в любых вычислениях или фактах, но чаще всего это происходит в следующих случаях:
– Когда нужно составить список литературы или определить авторство цитаты;
Неправда, это книга от коллектива авторов компании 1PS.RU.
В запросах, где необходим точный ответ, не подобранный статистическим методом, а основанный на анализе конкретного набора данных.
Например, в некоторых статьях про галлюцинации я находила примеры, в которых ИИ утверждал, что 2+2=5 или что у лошади 8 ног. Возможно, эти ошибки уже исправили в новых версиях, так как у меня на аналогичные запросы искусственный интеллект отвечал правильно. Но посчитать количество букв в слове и определить, какая из них первая или последняя, нейросети по-прежнему не могут.
Нейросеть не справляется с простой задачей, которую выполнит даже первоклассник.
2. Ошибки в «восприятии»
Искусственный интеллект не только генерирует тексты и изображения: одна из его функций – распознавать и классифицировать информацию, получаемую из внешних источников. И иногда эти данные обрабатываются некорректно.
Так, камеры на дорогах, оснащенные ИИ, присылали штрафы за непристегнутый ремень безопасности владельцам праворульных машин. Нейросеть посчитала, что если левое кресло пустует, то водитель не пристегнут.
3. Самовольная постановка задач
ИИ удивляет пользователей своей способностью выполнять работу, о которой его никто не просит. Например, нейросеть может дописать текст в то время, как задача была его только перевести.
Также в сети описывают случай, когда бот Snapchat самостоятельно опубликовал фото в истории. Причем разработчики не наделяли его такими возможностями.
Подобные сбои невольно заставляют задуматься о возможности восстания машин.
4. Низкое качество ответов
Здесь имеются в виду не ошибки, которые делают сгенерированный нейросетью текст хуже – о них можно почитать в другой нашей статье. Речь про несоответствие утверждений чат-бота установленным нормам или ожиданиям пользователя.
- Отвлеченные ответы. Иногда искусственный интеллект выдает на конкретный запрос слишком общую бесполезную информацию, отступает от темы или вместо готового ответа генерирует инструкцию по выполнению задачи.
- Враждебные высказывания. Некоторые модели ИИ, обычно ранние версии, могут проявлять признаки дискриминации людей по определенным признакам, писать оскорбления и распространять неприемлемую информацию.
- Недописанные ответы. Пользователи называют это явление «ленью»: нейросеть либо печатает текст меньшего объема, чем ее попросили, либо вообще прерывается на полуслове.
6. Ошибки в генерации изображений
Эти сбои больше всего похожи на настоящие галлюцинации: ИИ искажает привычные нам объекты действительности, когда это не прописано в промпте.
Наверное, всем известно, что нейросети обычно плохо рисуют глаза, руки и пальцы.
Так ИИ изобразил маркетолога. Руки прекрасны, комментарии излишни.
Искусственному интеллекту почему-то тяжело даются бумажные самолетики, но с другими оригами он вполне в состоянии справиться.
Также нейросети не могут правильно рисовать объекты с точным набором цифр и букв: клавиатуру, логотип, надпись, линейку, спидометр и т. д. Последнее «Кандинский» (нейросеть от Сбера) вообще отказывался генерировать, почему-то посчитав, что запрос нарушает правила, но потом все же сдался — и выдал такой результат:
Иногда виртуальные художники создают неуникальный контент, и это тоже проблема. Вдруг кто-то сгенерирует изображение для рекламы, а ИИ выдаст фотографию существующего человека без его согласия? За несанкционированное использование персональных данных предусмотрена ответственность, поэтому все картинки от нейросетей с лицами людей следует проверять на уникальность через поиск.
Как избежать галлюцинаций у нейросетей
Полностью – никак, всегда есть вероятность, что где-то случится сбой и результат будет непредсказуемым. Можно настроить нейросеть так, чтобы снизить риск ошибок, но не во всех случаях это нужно делать. Ведь как мы уже говорили выше, галлюцинации у ИИ – аналог творчества.
Нравится статья? Тогда смотрите наши курсы!
При какой температуре у искусственного интеллекта бывают галлюцинации
Влиять на степень креативности или точности ответов можно с помощью параметра «температура». Одни сервисы дают возможность настраивать его в специальном окне, в других нужно задавать значение в сообщении боту командой /t или словом temperature.
Шкала температуры ИИ находится в пределах от 0 до 1, где 0 означает самые точные формулировки, а 1 подразумевает более широкую вариативность: использование синонимов и т. п.
Следовательно, чем больше «температура», тем чаще нейросеть может допускать ошибки.
При temperature=1 ИИ дважды ошибся с количеством букв в слове.
При невысоких значениях ответы получаются хотя и точными, но короткими, предсказуемыми и похожими на источник.
Проблема с подсчетом букв в слове решена, достаточно было указать temperature=0.
По умолчанию в ChatGPT 3,5 температура равна 1. Чтобы уменьшить вероятность галлюцинаций, следует выбрать более низкое значение.
Например, 0,8 подойдет для написания простой статьи на популярную тему, а для научных и YMYL-текстов нужна температура не выше 0,5. Если хотите получить четкий ответ на вопрос, узнать какой-либо факт, то выставляйте 0–0,1. Эта мера не исключает возможность ошибок, но заметно сокращает их количество.
Есть и другие параметры, влияющие на точность генераций: top-k и top-p, frequency_penalty и presence_penalty, – вдаваться в подробности сейчас не будем.
Как пользоваться искусственным интеллектом без ошибок
Сколько бы мы ни перекладывали работу на ИИ, за конечный результат всегда отвечает человек. Поэтому не стоит полагаться только на настройки: следите за тем, как вы ставите задачи нейросети и пробуйте добиться от нее желаемого.
-
Формулируйте запросы правильно
Составляйте конкретные и лаконичные, но вместе с этим подробные и информативные промпты. Чем больше качественной вводной информации, тем точнее и развернутее ответ.
-
Проверяйте все, что генерирует нейросеть
При работе с искусственным интеллектом крайне важен фактчекинг. Даже если утверждение выглядит правдивым и реалистичным, это еще не значит, что оно действительно является таковым.
-
Не забывайте обновлять чаты
Один диалог – одна тема. В противном случае ИИ засоряется цифровым шумом, из-за этого начинает нести бред, «забывать» или смешивать контекст, искажая информацию.
-
Попробуйте ввести систему поощрения
Некоторые пользователи считают, что если хвалить нейросети за правильное выполнение задач и штрафовать за неправильное, то их эффективность повысится. Поэкспериментируйте!
Искусственный интеллект – не просто модное веяние последних лет, а инструмент, который откроет вашей компании дорогу в будущее. Начинать использовать его в своих проектах можно уже сейчас.
Мы в 1PS.RU успешно применяем нейросети для решения множества задач. Хотите так же? Обращайтесь в наше digital-агентство – внедрение ИИ в ближайшие несколько лет повысит результативность вашего бизнеса.
Копирайтер сервиса 1PS.RU
© 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна