Search

Почему ИИ не должен принимать решения о жизни и смерти

ИИ Sarco решит, жить вам или умереть

Добро пожаловать в Алгоритм! 

Позвольте представить вам Филипа Нитшке, также известного как «Доктор Смерть» или «Илон Маск эвтаназии».

У Филипа есть любопытная цель: он хочет «демедикализовать» смерть и сделать эвтаназию более простым процессом без посторонней помощи, с помощью технологий. Нитшке разработал машину под названием Sarco. Люди, стремящиеся покончить с собой, могут войти в машину после прохождения психиатрической самооценки на основе алгоритма. Если они пройдут, Sarco выпустит газообразный азот, который сделает свое дело за считанные минуты. Человек, решивший умереть, должен ответить на три вопроса: Кто ты? Где ты? А знаешь ли ты, что произойдет, когда ты нажмешь эту кнопку?

В Швейцарии, где эвтаназия разрешена законом, кандидаты  должны продемонстрировать умственные способности, которые обычно оцениваются психиатром. Но Нитшке хочет полностью исключить людей из этого процесса.

 

 

Нитшке — всего лишь один из энтузиастов в данной сфере. ИИ уже используется для сортировки и лечения пациентов во все большем числе областей здравоохранения. Алгоритмы становятся важной частью лечения, и мы должны постараться, чтобы их роль ограничивалась медицинскими, а не моральными решениями.

Он, вероятно, не единственный, кто чувствует себя крайне неловко, позволяя алгоритмам принимать решения о том, жить людям или умереть. Работа Нитшке кажется  классическим случаем  недостатка доверия к возможностям алгоритмов. Филип пытается обойти сложные человеческие суждения, внедряя технологию, которая может принимать «беспристрастные» и «объективные» решения.

Это опасный путь, и мы знаем, куда он ведет.  Системы ИИ отражают людей, которые их создают, и они насквозь пропитаны предубеждениями. Мы видели системы распознавания лиц, которые не распознают чернокожих и называют их  преступниками  или даже  гориллами . В Нидерландах налоговые органы  использовали алгоритм,  чтобы попытаться отсеять мошенничество с пособиями, только для того, чтобы наказать невиновных людей — в основном людей с низким доходом и представителей этнических меньшинств. Это привело к разрушительным последствиям для тысяч людей: банкротству, разводам, самоубийствам и передаче детей в приемные семьи.

Поскольку ИИ внедряется в здравоохранение, чтобы помочь принимать некоторые из самых важных решений, как никогда важно изучить, как эти системы построены. Даже если удастся создать идеальный алгоритм с нулевой предвзятостью, алгоритмам не хватает нюансов и сложности, чтобы самостоятельно принимать решения о людях и обществе. Мы должны тщательно задуматься, какую часть принятия решений мы действительно хотим передать ИИ. Это неизбежно, что ИИ будет все глубже и глубже проникает в нашу жизнь и общество. Это выбор, сделанный людьми.