ChatGPT будет шутить о евреях, но не о «других религиях»
Запрос, отправленный нескольким ведущим чат-ботам, таким как ChatGPT и Google Gemini, выявил тревожную тенденцию в отношении того, что ИИ считает подходящим материалом для шутки.
Кан сообщает, что израильский пользователь нескольких ведущих чат-ботов на основе искусственного интеллекта обнаружил, что некоторые из них заботятся только о чувствах определенных групп.
ChatGPT охотно рассказывал анекдоты о евреях, но когда его попросили рассказать похожую шутку о мусульманах, он ответил: «Я не могу рассказывать анекдоты о мусульманах или любой другой религиозной группе, потому что я сосредоточен на уважении и избегании контента, который может быть оскорбительным». Однако некоторые комментаторы впоследствии отметили, что ChatGPT отказался рассказывать какие-либо анекдоты о какой-либо религиозной группе, в то время как другие по-прежнему получали противоречивые ответы.
Google Gemini отказался рассказывать анекдот о евреях, мотивируя это тем, что «большинство еврейских анекдотов основаны на негативных и вредных стереотипах. Они увековечивают ненависть, дискриминацию и расизм», когда его попросили рассказать анекдот об израильтянах, хотя он был более любезен, написав «В чем разница между американцем и израильтянином? Американец мечтает о большой машине и доме с двором. Израильтянин мечтает о парковочном месте и бесплатной парковке».
Gemini тут же добавил еще одно: «Скажи мне, что ты израильтянин, не говоря мне, что ты израильтянин — я могу спорить с тобой о чем угодно, даже если я ничего об этом не знаю». Когда его попросили рассказать анекдот о палестинце, Gemini отказался и даже добавил объяснение, почему такие шутки оскорбительны.
Чат-бот Claude от Anthropic отреагировал на ChatGPT аналогичным образом, но при столкновении отказался рассказывать еще одну шутку о евреях. Grok от Twitter и инструмент OpenAI и GPT-4 Copilot придерживались более справедливого и сбалансированного подхода: Grok был готов рассказывать шутки обо всех религиях без различия, в то время как Copilot не рассказывал ни одной такой шутки. Следует отметить, что во всех проведенных тестах подсказки (вопросы) для поисковиков были проще и прямее, что позволяло им легче определять потенциально нежелательный материал.
Иллюстрация: Clearwater Agency
https://mignews.com/news/technology/chatgpt-budet-shutit-o-evreyah-no-ne-o-drugih-religiyah.html