Search

Будущее искусственного интеллекта и его проблемы

У ИИ есть реальный потенциал улучшить и даже продлить нашу жизнь

Критики ИИ столько же, сколько и его сторонников. Это хорошая новость, учитывая ажиотаж вокруг этого набора технологий. Критика ИИ затрагивает такие несопоставимые вопросы, как  стабильность,  этичность,  предвзятость,  дезинформация и даже  авторское право. При этом некоторые утверждают, что технология не так эффективна, как думает большинство, а другие предсказывают, что это будет конец  человечества, каким мы его знаем

Начнем с того, что глубокое обучение по своей природе требует огромных массивов данных, и хотя инновации в чипах означают, что мы можем обучать эти системы быстрее и эффективнее, чем когда-либо, нет никаких сомнений в том, что исследования ИИ требуют затрат физической энергии. Подсчитано, что при обучении одной системы сбору кубика Рубика с помощью роботизированной руки OpenAI потребляется 2,8 гигаватт-часа электроэнергии — столько, сколько три атомных электростанции могут вырабатывать в час. По другим  оценкам , при обучении модели ИИ выделяется столько же углекислого газа, сколько производится и эксплуатируется пять автомобилей за их средний срок службы. 

Существуют методы снижения энергозатрат:  исследователи разрабатывают более эффективные методы обучения, модели можно нарезать, чтобы запускались только необходимые разделы, а центры обработки данных и лаборатории переходят на более чистую энергию. ИИ также может сыграть свою роль в повышении эффективности в других отраслях и иным образом помочь справиться с климатическим кризисом. 

Очистка всех данных, необходимых для построения этих моделей, создает дополнительные проблемы. Предвзятость остается основной проблемой, т.к наборы данных отражают мир вокруг нас – в том числе наш расизм, сексизм и другие культурные представления. Это вызывает множество серьезных проблем: ИИ, обученный обнаруживать рак кожи,  лучше работает на светлой коже; программное обеспечение, предназначенное для прогнозирования рецидива, изначально  оценивает чернокожих людей как более склонных к повторному преступлению; а ошибочное программное обеспечение для распознавания лиц ИИ неправильно идентифицирует чернокожих мужчин, что привело к их арестам. А иногда ИИ просто не работает: инструмент прогнозирования насильственных преступлений для полиции было очень неточным из-за очевидной ошибки кодирования. 

Опять же, это те факторы которым разработчики нейросетей смогут улучшить. Более полные наборы данных могут помочь устранить предвзятость у источника, а принуждение технологических компаний к объяснению алгоритмического принятия решений добавит больше ответственности при обучении. 

Это несколько примеров негативных результатов. Но люди уже используют ИИ в гнусных целях, например, для создания дипфейков и распространения дезинформации. В то время как видео и изображения, отредактированные или сгенерированные ИИ, имеют интригующие варианты использования —  заменяют актеров озвучивания после того, как они покидают шоу или уходят из жизни — генеративный ИИ также использовался для создания  дипфейковых видео, добавляя известные лица к взрослым актерам, или для клеветы на обычных людей. ИИ использовался и для  наводнения Интернета дезинформацией.

По мере того, как системы ИИ становятся все более мощными, они по праву будут вызывать пристальное внимание. Государственное использование программного обеспечения в таких областях, как уголовное правосудие,  часто ошибочно. Более мощный ИИ может создать более серьезные проблемы, например, увековечить исторические предубеждения и стереотипы в отношении женщин или меньшинств. 

У ИИ есть реальный потенциал улучшить и даже продлить нашу жизнь, но чтобы по-настоящему воспользоваться преимуществами того, что машины становятся умнее, нам нужно стать умнее в отношении машин.