Это предложение было написано искусственным интеллектом или нет?
Новый чат-бот OpenAI ChatGPT ставит перед нами вопрос: как мы узнаем, написано ли то, что мы читаем в Интернете, человеком или искусственным интеллектом?
ChatGPT использовали уже более миллиона человек. Интернет все больше наводняется текстами, сгенерированным ИИ. Люди используют его, чтобы придумывать шутки, писать детские рассказы и создавать более качественные электронные письма.
ChatGPT — это ответвление OpenAI от его большой языковой модели GPT-3 , которая генерирует удивительно человечные ответы на задаваемые вопросы. Уникальность этих языковых моделей заключается в иллюзии правильности. Предложения, которые они составляют, выглядят правильно — в них используются нужные слова в правильном порядке. Но ИИ не знает, что это значит. Эти модели работают, предсказывая наиболее вероятное следующее слово в предложении. Они понятия не имеют, правильно что-то или нет, и уверенно представляют информацию как истинную, даже если это не так.
Инструменты ИИ могут исказить информацию, которую мы потребляем. Если они будут внедрены в реальном мире в реальных новостных потоках, последствия могут быть непредсказуемы.
«Мы нуждаемся в способах различать текст, написанный человеком, и текст, написанный ИИ, чтобы противостоять неправильному использованию технологии», — говорит Ирэн Солейман, директор по политике стартапа ИИ Hugging Face.
Современный набор инструментов для обнаружения
Уже были попытки обнаружить текст, сгенерированный ИИ различными способами . Одним из распространенных методов является использование программного обеспечения для анализа различных характеристик текста, например, насколько бегло он читается, как часто появляются определенные слова или есть ли закономерности в пунктуации или длине предложения.
Поскольку большие языковые модели работают, предсказывая следующее слово в предложении, они с большей вероятностью будут использовать общие слова и предлоги, такие как «этот», «прочий» или «тот», а не редко встречающиеся слова. Текст, написанный человеком, изобилует опечатками и неструктурирован, включает в себя разные стили и сленг, в то время как языковые модели очень, очень редко допускают опечатки. Они намного лучше генерируют идеальные тексты.
Скотт Ааронсон, ученый-компьютерщик из Техасского университета, разрабатывает водяные знаки для более длинных фрагментов текста, генерируемых такими моделями, как GPT-3 — «незаметный секретный комбинация при выборе слов, которые можно использовать, чтобы доказать, что изучаемый текст пришел из GPT», — пишет он в своем блоге.
Представитель OpenAI подтвердил, что компания работает над водяными знаками, и сказал, что ее политика гласит, что пользователи должны четко указывать текст, сгенерированный ИИ, «таким образом, чтобы никто не мог пропустить эту информацию или неправильно истолковать». «Сейчас нас беспокоит то, что ChatGPT выдает впечатляющие результаты. Модели обнаружения просто не поспевают за ними.
Реклама. ЧОУ ЧАСТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ДОПОЛНИТЕЛЬНОГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ ОБРАЗОВАТЕЛЬНЫЕ ТЕХНОЛОГИИ СКИЛБОКС (КОРОБКА НАВЫКОВ), ИНН 9704088880, erid: LdtCJzD4K
Итоги
Универсального средства для обнаружения текста, написанного искусственным интеллектом, не существует. Было бы очень удобно иметь подключаемый модуль для Chrome или любого другого веб-браузера, который вы используете, который сообщит, если какой-либо текст на веб-странице сгенерирован ИИ.
Но первые механизмы уже созданы. Исследователи из Гарварда и IBM разработали инструмент под названием Giant Language Model Test Room (GLTR), который выделяет отрывки текста, которые могли быть сгенерированы компьютерной программой.