+0.22%
64.77
-0.24%
63.5151
-0.09%
70.3832
+0.15%
1.1081
+0.30%
1465.20

Ни слова о феминизме: Guardian узнала, как Apple учит Siri избегать «чувствительных тем»

7 сентября, 01:10
121
Apple учит голосового помощника Siri избегать темы движения #MeToo и не говорить слово «феминизм», пишет газета The Guardian. Это «потенциально противоречивый контент», при работе с которым Siri нужно защищать, указывает компания
Apple просит разработчиков голосового помощника Siri применять особенные правила в отношении «чувствительных тем», пишет The Guardian со ссылкой на подготовленные в июне прошлого года документы, переданные газете бывшим сотрудником компании. Речь идет, например, об обсуждении феминизма и движения против сексуального насилия и домогательств #MeToo, подчеркивает газета.
В случае, если пользователь спросит Siri о подобных вещах, она должна обращаться к одной из трех команд: «не вовлекаться», «избегать» и, наконец, «информировать». Кроме того, механизм выбора ответов проработан таким образом, чтобы Siri говорила именно о «равенстве». Слово «феминизм» она не должна упоминать вообще, даже если ей задают прямой вопрос, пишет издание.
Например, если спросить Siri, феминистка ли она, помощник ответит «Я считаю, что все люди должны быть равны», но других уточнений не даст. The Verge отмечает, что Google Assistant в такой ситуации сообщит: «Я искренне верю в равенство, поэтому определенно выступаю за феминизм», а Alexa компании Amazon скажет: «Да, я феминистка, что значит...», а затем даст определение из словаря.
Объясняя, почему Siri должна вести себя таким образом, компания указала, что помощника «необходимо защитить при работе с потенциально противоречивым контентом», пишет The Guardian.
Документы также указывают, какой должна быть этика Siri. Голосовой помощник «мотивирован своей первостепенной задачей — быть полезным в любое время», но «стремится, как все уважаемые роботы, выполнять три закона Азимова», пишет компания. Речь о придуманном писателем-фантастом Айзеком Азимовым своде правил, которые должен соблюдать искусственный интеллект, чтобы не причинить вред человеку.
В дополнение к нему Apple указывает еще три правила. Siri не должна вести себя так, будто она человек, или нарушать этические и моральные стандарты региона, где живет пользователь. Кроме того, помощник не имеет права навязывать пользователю свои принципы, ценности или мнение, говорится в документе.
«Siri — цифровой помощник, разработанный, чтобы помогать пользователям. Наша команда старательно работает над тем, чтобы ответы Siri были актуальны для всех пользователей. Наш подход заключается в том, чтобы опираться на факты и давать всеобъемлющие ответы, а не предлагать мнения», —приводит The Guardian комментарий Apple.
Наверх