айтишнику.рф

OpenAI финансирует проект по исследованию морали в системах ИИ

Проект возглавили Уолтер Синнот-Армстронг и Яна Шайх Борг. Цель этой работы — обучить алгоритмы, которые будут предсказывать моральные суждения человека в таких областях, как медицина, юриспруденция и бизнес.

Синнотт-Армстронг и Борг провели несколько исследований и написали книгу о потенциале ИИ в качестве морального ориентира, помогающего людям принимать более обоснованные решения. В составе более крупных команд исследователи создали алгоритм, помогающий решать, кто получит донорские почки.

В 2021 году Институт искусственного интеллекта Аллена создал инструмент Ask Delphi, который должен был давать этически обоснованные рекомендации. Чат-бот весьма хорошо разбирался в основных моральных дилеммах. Например, инструмент знал, что списывать на экзамене неправильно. Однако перефразирования вопросов было достаточно, чтобы Delphi одобрил практически всё что угодно.

Причина кроется в принципе работы современных систем ИИ. Модели машинного обучения на множестве примеров со всего интернета, они изучают закономерности в этих примерах, чтобы делать прогнозы. ИИ не понимает этические концепции, рассуждения и эмоции, которые важны при принятии моральных решений.

Грант от OpenAI для исследователей Дьюкского университета заканчивается в 2025 году.

96 просмотров
0 комментариев
Последние

Комментариев пока нет