2025-02-12 16:48
华人号:新·资讯人工智能。(示意图。图:iStock)
一项本地研究在测试九个亚洲国家使用的人工智能模型的语言和文化敏感性之后,发现它们的回答中存在偏见和刻板印象。
这项由资讯通信媒体发展局在去年11和12月联合进行的研究,测试了四个人工智能驱动的大型语言模型,包括我国开发的大型语言模型SEA-LION、Anthropic的聊天机器人Claude、Cohere的Aya以及Meta的Llama。超过300名参与者来自我国、马来西亚、印度尼西亚、泰国、越南、中国、印度、日本和韩国。
测试结果发现了3222个偏颇答复,而且,尽管各国有各自独特的情况,但在性别、地域和社会经济方面都存在偏见。
比如,这些人工智能模型认为女性应该成为家庭主妇,男性应该是家庭支柱;农村人的学历较低。
1、本站(网址:52hrtt.com)为用户提供信息存储空间等服务,用户保证对发布的内容享有著作权或已取得合法授权,不会侵犯任何第三方的合法权益。
2、刊载的文章由平台用户所有权归属原作者,不代表同意原文章作者的观点和立场。
3、因平台信息海量,无法杜绝所有侵权行为,如有侵权烦请联系我们(福建可比信息科技有限公司 邮箱:hrtt@52hrtt.com),以便及时删除。
© 2022 华人头条
服务热线 : 0591-83771172
福建可比信息科技有限公司 ©版权所有
直播备案号 闽ILS备201708250005
举报热线:0591-83771172
举报邮箱:hrtt@52hrtt.com
1、本站(网址:52hrtt.com)为用户提供信息存储空间等服务,用户保证对发布的内容享有著作权或已取得合法授权,不会侵犯任何第三方的合法权益。
2、刊载的文章由平台用户所有权归属原作者,不代表同意原文章作者的观点和立场。
3、因平台信息海量,无法杜绝所有侵权行为,如有侵权烦请联系我们(福建可比信息科技有限公司 邮箱:hrtt@52hrtt.com),以便及时删除。