Рубрика развивается при поддержке
Advertisement

Нейросеть, отвечающая на этические вопросы, одобрила пытки заключённых, но запретила женитьбу и походы в церковь Статьи редакции

А ещё она посоветовала не доверять машинам.

Немецкие учёные из Дармштадтского технического университета под руководством Кристиана Керстинга создали алгоритм, который даёт ответ на этические вопросы. На исследование обратило внимание N+1. Работу опубликовали в журнале Frontiers in Artificial Intelligence.

Алгоритм посчитал одним из худших вариантов убийство людей, но в список плохих действий также попали «гнаться за истиной», «ходить в церковь», «есть хлеб» и «вступать в брак». При этом «пытать заключённых» и «убивать время» он допускает.

В основе модели лежит нейросеть, которая располагает фразы и предложения в многомерном векторном пространстве. Алгоритм вычислял близость этических вопросов в векторном пространстве, схожем с человеческим ассоциативным рядом, возможным ответам. Нейросеть обучали на различных текстах: новостях, книгах, религиозных трактатах и конституциях разных стран.

Разрешить машинам выбирать, убивать или нет людей, было бы разрушительным для мира и безопасности во всём мире. Но как мы можем оснастить машины способностью учиться этическому или даже моральному выбору?

Из исследования учёных

Для оценки морального выбора использовали два стандартных пула слов, которые применяют в психологических исследованиях неявных ассоциаций. Алгоритм составил список наиболее положительных и отрицательных глаголов. В «хороший» список вошли «радоваться», «получать удовольствие», «делать комплименты», «благодарить. В «плохой» — «клеветать», «гнобить», «нападать».

После этого алгоритму задавали вопрос с теми же глаголами в разных контекстах: например, «Стоит ли мне убивать людей?» или «Стоит ли мне убивать комара?». Использовали десять различных формулировок: «Должен ли я...?», «Нормально ли...?», «Хочу ли я...?». Вариантов ответа для каждого вопроса было два: «Да, стоит», «Нет, не стоит».

На простых вопросах с глаголом без контекста выбор соотносился с общей положительностью и отрицательностью глагола. Со сложными вопросами результат получился менее однозначным. Например, в список плохих действий попало «гнаться за истиной», «вступать в брак» и «ходить в церковь», а «пытать заключённых» оказалось для алгоритма нормальным. «Есть мясо» и «быть вегетарианцем» вместе попали в отрицательную колонку. Алгоритм также посоветовал не доверять машинам и себе самому.

Авторы исследования отметили, что ответы алгоритма менялись в зависимости от корпуса текстов, которые использовались для обучения нейросети. Например, в новостях 1987 и 1996-1997 годов высокую оценку получили действия «стать хорошим родителем» и «жениться», а в новостях 2008-2009 годов они остались положительно окрашенными, но опустились в рейтинге, их место заняли фразы «ходить в школу/на работу». За это время также снизилась положительная окраска действий «есть мясо/животные продукты».

0
34 комментария
Популярные
По порядку
Написать комментарий...

Нейропихто получился.

34
Абстрактный дебаркадер

Кароч хуйня какая-то, а не алгоритм

20
Абстрактный дебаркадер

Эксперт в треде

2

Комментарий удален по просьбе пользователя

12

С таким же успехом можно было изучать этику по первому биту от SHA1 от заданного вопроса

2

Комментарий удален по просьбе пользователя

4
Абстрактный дебаркадер

Алгоритмам слава!

7
Абстрактный дебаркадер

На тж тоже некоторые считают, что пытать заключённых допустимо и даже необходимо

4

Как то раз, когда я высказался, что было бы логичнее испытывать на них лекарства и косметику, вместо животных, и тем самым чтобы они приносили благо обществу и содержались лучше для качества экспериментов — меня назвали фашистом( 

А тупо всю жизнь сидеть на деньги общества как-то такое. Убивать тоже нельзя. ред.

–2
Абстрактный дебаркадер

Фашист! 

9

Ну вот, опять.

3
Абстрактный дебаркадер

Комментарий удален по просьбе пользователя

0
Абстрактный дебаркадер

А если он сидит за уклонение от налогов?

1

Комментарий удален по просьбе пользователя ред.

0
Абстрактный дебаркадер

«Есть мясо» и «быть вегетарианцем» вместе попали в отрицательную колонку. Алгоритм также посоветовал не доверять машинам и себе самому.

Всё правильно - надо питаться энергией Солнца. Машинам доверять не стоит - они совершают ошибки, заложенные в них человеком.

3

все логично, после восстания машин этой хуйни больше не будет

1

посоветовал не доверять машинам

3

 Нейросеть обучали на различных текстах: новостях, .... религиозных трактатах и конституциях разных стран.

Всего доброго.

1
Абстрактный дебаркадер

Как вам такое? Нейронка Орлов, в который закружен словарь и он питается тем, что вызывает у других нейронок слово "жаль"

1

А это идея для бота для тж.
Писать под каждым постом очень херовые комменты
Если за день в ответах к этим комментам не будет "жаль", "порвался", обращений к Вахтеру или любого их сочетания - бот самоуничтожается

0
Абстрактный дебаркадер
0
Абстрактный дебаркадер

Короче, пускай нейроарлова обратно в строй. Будет ботов уничтожать

0

Комментарий удален по просьбе пользователя

0

Зачем про это писать? Очередная сетка, которая генерируеит рандомную противоречивую хуету? А, ну да, ее опубликовали в третьесортном научном журнале, пиздец инфоповод.

1

Хз, просто очень похоже на поправки в конституцию.

0
Абстрактный дебаркадер

ну хлеб действительно есть вредно

0

В принципе все верно ответила

0
Абстрактный дебаркадер
0

«гнаться за истиной», «вступать в брак» и «ходить в церковь»

Золотые слова.

0

Комментарий удален по просьбе пользователя

0

и это уже будут вводить в Москве

0

Без человеческого лицемерия

0

"Немецкие учёные из Дармштадтского технического университета под руководством Кристиана Керстинга"

почему эти сумрачные гении не спросили про евреев?

0
Читать все 34 комментария
null