С распространением инструментов ИИ, основанных на крупных языковых моделях, таких как ChatGPT, Bard, DALL-E и BingAI, в обиход вошли такие словосочетания, как «крупномасштабная языковая модель», «генеративный ИИ» и «GPT». В то же время к существующим статьям на Википедии были добавлены новые значения, связанные с искусственным интеллектом. Одно из них – «галлюцинация».
Что касается причины выбора слова «галлюцинация», редакция Кембриджского словаря заявила: «Мы выбрали слово «галлюцинация» словом 2023 года, потому что считаем, что это новое значение отражает причину того, почему люди так много говорят об ИИ.
Традиционное значение галлюцинации — это «восприятие видений, звуков или ощущение вещей, которых на самом деле нет». Позже этот термин стал использоваться в области машинного обучения, а по мере того, как генеративный ИИ стал повсеместно распространен, термин стал использоваться и широкой публикой. Однако есть мнение, что использование того же термина(что и для физиологических явлений у человека) для описания проблемы генерации неверной информации ИИ является ненужным антропоморфизмом.
«Галлюцинация» выбрана словом года в 2023 году из-за нового значения, связанного с генеративным искусственным интеллектом.Кроме того, “галлюцинации” ИИ уже оказывают влияние на реальный мир. Например, в результате того, что юридическая фирма использовала ChatGPT для своих исследований, в суде было реально рассмотрено дело, придуманное ИИ.
ИИ отлично справляется с обработкой огромных объемов информации. данных, извлекая конкретную информацию и интегрируя ее в ответы, но чем более творческими мы просим их быть, тем больше у них шансов “заглючить”.