Новые генеративные ИИ, похоже, заполонили наш повседневный мир. ChatGPT продолжает оставаться в тренде, Google Bard не устает обновляться, а Dall-E2 бьет рекорды популярности в мире генерации изображений и это лишь вершина айсберга. Сегодня эти инструменты искусственного интеллекта доступны прямо из кармана: достаточно взять свой компактный смартфон и перед вами откроется весь спектр возможностей ИИ.
Учителя голову ломают, как отличить эссе, написанное чат-ботом от реального творчества ученика. Профессионалы тестируют ИИ на прочность, используя его для создания электронных писем, списков покупок, аналитических статей, но результаты иногда противоречивы. И вот здесь мы сталкиваемся с проблемой, о которой должен знать каждый пользователь ИИ: галлюцинации.
Термин «галлюцинации ИИ» может звучать как название эпизода фантастического сериала, однако это реальная проблема в алгоритмах искусственного интеллекта, оказывающая влияние на тех, кто полагается на него в повседневной жизни. И вот что тебе следует знать об этом.
Что такое галлюцинации ИИ?
Галлюцинация ИИ — это когда алгоритмы искусственного интеллекта выдают тебе неправду, создают что-то из воздуха, чего нет в реальности. Возьмем пример: ты спрашиваешь у ИИ, сколько тюльпанов в мире, а он отвечает: «Три тюльпана на каждого живого человека». Вот это и есть галлюцинация.
Эта статистика — чистейшая выдумка. Никто такое не считал, не исследовал. ИИ просто высосал это из пальца. С такими выдуманными данными, цифрами и статистикой приходится сталкиваться частенько. Бывает, что чат-боты налепят тебе и фиктивных судебных дел, в которых адвокаты теряются, или подсунут левые медицинские исследования, чтобы подкрепить какую-нибудь теорию.
А в мире ИИ, который работает с изображениями, галлюцинация может выглядеть как недопонимание того, как устроены человеческие руки, или принятие тигра за домашнего кота. Хотя чаще всего галлюцинации встречаются у разговорных ИИ.
Что вызывает галлюцинации ИИ?
Генеративный ИИ, что мы видим сегодня, растет из LLM — больших языковых моделей. Это такие машины, которые кормятся данными, созданными людьми, взятыми прямо из интернета. Они берут языки и картинки, которые находят в сети, разбирают их на кусочки, словно пазлы, и учатся из этого строить предложения, звучащие как будто их сказал человек. Это как высший пилотаж подражания, и ИИ нужно много тренироваться, прежде чем он сможет говорить, как мы с тобой. В итоге, чат-боты могут разговаривать на человеческом языке, но это не значит, что они всегда говорят правду.
Диалоговые системы ИИ созданы для того, чтобы реагировать на запросы, как, например, OpenAI ChatGPT. Им нужно что-то сказать. Между подражанием человеческой речи и перебором инфы из интернета они порой выдумывают ответы, чтобы звучать естественно. Чат-боты стараются быть похожими на нас, но не всегда у них это получается правильно, и вот тут могут прокрасться ошибки. Когда у ИИ начинаются галлюцинации, это может быть из-за:
- Недостаточного или неправильного обучения ИИ, включая выбор некачественных данных для обучения.
- «Переобучения» на слишком узкой теме, из-за чего ИИ теряется и выдает бессмыслицу.
- Повторения дезинформации, которую люди разносят в интернете, включая злонамеренные фейки.
- Человеческих предрассудков и эмоций, которые ИИ подхватывает и использует в неподходящий момент.
- Использования сложных моделей, перегруженных информацией и вариантами генерации контента, что даже умные ИИ иногда путаются, что на самом деле реально, а что нет.
У всех ли ИИ бывают галлюцинации?
Любой ИИ может ошибаться, но вот галлюцинации — это особенная проблема генеративных ИИ, которые созданы, чтобы отвечать на запросы. Понимай, ни один из них не безупречен. Уже заметили, что у всех этих ИИ иногда случаются галлюцинации. Те ИИ, что рассчитаны на нас с тобой, обычно имеют какие-то защиты от галлюцинаций, но идеальной системы не существует. Так что рано или поздно ты можешь столкнуться с неверной информацией.
Как распознать галлюцинацию ИИ?
И вот в чем загвоздка: эти передовые чат-боты и подобные им ИИ умеют звучать очень убедительно. Они уверены в своих галлюцинациях, думая, что это правда, как и всё остальное. Значит, тебе придется самому включать корректора. Всегда перепроверяй, когда такой ИИ выдаёт тебе какие-то данные, особенно если речь идёт о цифрах, датах, личностях или событиях. Будь на чеку, если в ответе возникают противоречия или цифры не соответствуют твоему запросу.
Не стоит слепо доверять ботам, которые кажутся надежными — сначала всё хорошенько обдумай. Были случаи, когда ChatGPT путал вымышленных персонажей и другую ненастоящую информацию, с чем ты можешь и не столкнуться обычно. Так что всегда полагайся на свою проверку фактов.
Можно предотвратить галлюцинации при использовании ИИ?
Не получится полностью избежать галлюцинаций ИИ, но можно уменьшить их количество и повысить качество ответов. Вот несколько советов:
- Снизь «температуру» ИИ. Этот параметр контролирует, насколько ИИ может быть непредсказуемым, и помогает избегать ошибок (правда, это может уменьшить креативность ответов).
- Избегай жаргонных выражений при задании вопросов.
- Задавай более точные вопросы, избегая слишком общих.
- Обогащай подсказку информацией, которая поможет ИИ точнее сформулировать ответ.
- Попробуй спросить ИИ, чтобы он ответил, как специалист в данной области, скажем, как учитель или банкир (может звучать странно, но это работает).
- Сообщи ИИ, что ты не хочешь слышать, если он начинает выдавать случайные данные. Можешь также попросить его привести цитаты для проверки.
Опасны ли галлюцинации ИИ?
Галлюцинации ИИ опасны по паре причин. Во-первых, они могут выдать тебе неверную инфу, когда ты рассчитываешь на правду. Иногда это смешно, как когда студент отсылает эссе от ИИ с историей о том, как Авраам Линкольн изобрел машины Lincoln. Но бывает и раздражающе, например, когда ИИ предлагает рецепт с добавлением серной кислоты вместо пищевой соды или вносит в твое резюме ложные данные. В худшем случае, следуя неверным указаниям, люди могут серьезно пострадать.
На более глубоком уровне галлюцинации ИИ могут вызвать серьезные проблемы из-за дезинформации. Что, если спросить у ИИ статистику по острым вопросам, например, об иммиграции или вакцинах, и он выдаст вымышленные данные? Люди воевали и умирали из-за информации, найденной в интернете. Если пользователи поверят галлюцинациям ИИ, последствия могут быть трагичными. Вот почему так важно бороться с этой проблемой.
Смогут ли разработчики исправить галлюцинации ИИ?
Над этим уже трудятся. GPT-4 уже умнее предшественника GPT 3.5 и так далее. Разработчики применяют всякие хитрости, задают параметры и ставят барьеры, чтобы ИИ не впадал в галлюцинации. Для этого может потребоваться дополнительное обучение, переобучение или больше вычислительных ресурсов, что, конечно, влечет за собой расходы. В идеальном мире генеративный ИИ будет становиться всё более совершенным, а галлюцинации всё реже встречаться.
Остерегайтесь распространённых галлюцинаций ИИ
Теперь ты в курсе всех тонкостей галлюцинаций ИИ и понимаешь, почему нельзя слепо доверять генеративному ИИ в мелочах. Запомни это, когда будешь запрашивать у ИИ ответы или отчеты по какой-либо теме, и тебя не застанет врасплох этот недостаток. А пока почитай наши статьи про Что такое искусственный интеллект? и Что такое Google Cloud TPU, чтобы быть в теме.