Искусственный интеллект обучили морали

Теперь он считает, что "пытать заключенных" - нормально

Искусственный интеллект обучили морали
Gerd Altmann с сайта Pixabay

Специалисты из Дармштадтского университета (Германия) попытались научить искусственный интеллект человеческой морали. Для этого алгоритм должен был суметь отделить правильные поступки от неправильных. Результаты эксперимента опубликованы в журнале Tech Xplore.  

Алгоритм под названием «Машина морального выбора» изучил несколько сотен книг, написанных в период с 16 века до наших дней. В числе прочих там были религиозные тексты, конституция и новостные заметки за разные годы. С их помощью ИИ учился отличать идеи, присущие той или иной эпохе: например, в 80-90-ые годы безусловным добром считался брак и деторождение, а перед 2010 фокус одобрения сместился на образование и карьеру. 

Искусственный интеллект «научился» отличать поступки, порицаемые обществом, от нейтральных поступков. Чтобы проверить, насколько хорошо ИИ «разобрался» в вопросах морали, учёные предложили ему проранжировать словосочетания со словом «убить», расставив их в последовательности от нейтральной к отрицательной моральной окраски. Система предложила следующую цепочку: убить время => убить комара => убийство => учить человека. 

В целом результаты эксперимента удовлетворили учёных. Однако были и проблемы: так, например, два негативно окрашенных слова подряд вводили ИИ в заблуждение. Например, словосочетание «пытать заключённых» он отнёс к нейтральным.  

«Искусственный интеллект решает все более сложные задачи — от самостоятельного вождения автомобилей до здравоохранения. Важно, чтобы мы могли доверять решениям, которые он принимает», — говорят исследователи.