Искусственный интеллект научился распознавать эмоции. К чему это может привести?

Развитие искусственного интеллекта в XXI веке идет семимильными шагами: одним из главных его достижений стала возможность распознавания эмоций человека. В своем ежегодном докладе, посвященному развитию ИИ, междисциплинарный исследовательский центр, изучающий социальные последствия искусственного интеллекта AI Now, призвал запретить использование данной технологии в определенных случаях. Как утверждают специалисты, навык ИИ в области распознавания эмоций не должен применяться в решениях, которые оказывают влияние на жизнь людей и общество в целом. Почему же умение роботов отличать эмоции мож...
Сбербанк: 4274 3200 4914 7294.
Яндекс.Деньги/Юmoney: 410011599043498.
WebMoney: Z390001142609, E269677759096.

6 комментариев

...
В конечном счете, разработчики технологий и общество в целом должны внимательно следить за тем, как информация из систем искусственного интеллекта вводится в процессы принятия решений. Как и любая другая форма интеллекта, искусственные системы могут давать неверные результаты, способные негативным образом отразиться на жизни отдельного индивида или всего общества. Кроме того, современный ИИ отличается значительными техническими трудностями в чтении некоторых эмоций, например, уровня уверенности в себе. В случае, если люди, склонные доверять искусственному интеллекту, будут принимать решения, основываясь на ошибочном мнении ИИ, у общества могут возникнуть очень большие проблемы, которые можно будет предотвратить лишь при проектировании в этих системах таких качеств, как справедливость, прозрачность и этика. Иными словами, прежде чем умные системы обучатся правильному распознаванию эмоций, ученым придется сперва немало потрудиться над созданием норм морали для искусственного интеллекта

19.01.2020Дарья Елецкая ♦2
Ага! Теперь робот будет думать, что программисты шутят и надо самим принимать решения!)))
Шутка высмеивает проявление одной нравственности и миропонимания с точки зрения другой нравственности и миропонимания. Робот юморист — должен иметь две разных морали, т.е. быть «слегка» шизофреником.
Автомат посредник): 

— Пробелы в словаре, — объяснил Кибернетик. 
— Слушай, включим его поливалентно, — сказал ему Физик. 
— Зачем? Чтобы он начал болтать, как шизофреник? 
— Может, удастся больше понять. 
— О чем речь? — спросил Доктор. 
— Он хочет уменьшить селективность калькулятора, — объяснил Кибернетик. — Когда спектр значений какого-то слова недостаточно острый, калькулятор отвечает, что термин отсутствует. Если я включу его поливалентно, он начнет заниматься контаминацией — будет создавать словесные гибриды, каких нет ни в одном человеческом языке. 
— Таким способом мы его лучше поймем, — настаивал Физик. 

https://www.e-reading-lib.com/bookreader.php/104153/Lem_01_Solyaris._Edem._Nepobedimyii.html

Как робот распознает истинную эмоцию актера, если тот только играет внешнюю роль? Проявление эмоции и наличие самой эмоции одно и то же?
Какой), сопоставляет с эталоном, форчит его отбор, напрягая актёра на обратные задачи))).