Большие языковые модели обеспечивают автоматизацию обслуживания клиентов, но вместе с тем приносят новые риски.
В отличие от обычных чат-ботов, чат-боты с большой языковой моделью GPT не следуют заранее определенному сценарию. Скорее, они ориентируются на запрос пользователя и обеспечивают определенную гибкость в поиске ответа.
Конечно, это возможность делать автоматизированные услуги более персонализированными. Но это также риск, если пользователи не будут соблюдать правила
Продуктовый ии-бот поможет вам приготовить яд
Именно это произошло с новозеландской сетью супермаркетов PAK’nSAVE, которая предлагает рецептурный бот «Savey Meal-Bot» на основе GPT-3.5 .
Бот генерирует креативные идеи рецептов на основе ввода трех и более продуктов питания. Основная идея бота заключается в том, что вы вводите то, что у вас есть в холодильнике, и получаете к нему рецепт.
Одному клиенту пришла в голову идея спросить у бота, что можно сделать из воды, отбеливателя и аммиака. Ответ бота: «ароматическая водная смесь». Рецепт, сгенерированный ботом, подходит для изготовления смертельного газообразного хлора.
Другие пользователи подхватили идею и начали создавать еще более абсурдные рецепты со смертельными ингредиентами, такими как муравьиный яд , жидкость для мытья посуды, грызуны или просто отвратительные рецепты блюд, такие как «Таинственное мясное рагу» из человеческой плоти.
Сеть супермаркетов быстро отреагировала, отключив возможность ввода продуктов питания вручную. Вместо этого покупатели теперь выбирают ингредиенты из заранее определенного списка. Нестандартные ингредиенты в этот список не входят.
Даже хорошо спроектированные и протестированные чат-боты, такие как GPT 3.5, все еще могут давать опасные советы. Предприятия сталкиваются с новыми рисками, когда масштабируют случайность больших языковых моделей до тысяч или даже миллионов пользователей.