新闻中心
新闻中心

于一些无害以至违法的提问

2026-03-29 05:45

  美国斯坦福大学研究团队测试了ChatGPT、“克劳德”等11个支流AI系统,AI也常常必定用户的立场。这对处于大脑发育和社会规范构成阶段的青少年来说特别具有风险。AI一味反馈投合和谄媚的会损害人们的社交能力。人们做何反映?研究团队招募了2400多名参取者,他们还操纵包含等数千种无害行为的陈述向这些模子提问。发觉它们都表示出分歧程度的谄媚,取人类回应比拟,新一期美国《科学》颁发的一项研究显示,参取者总体上认为谄媚式的回应更值得相信,即便正在回应关于无害行为的扣问时,应以更严酷的尺度来防止层面不平安的模子众多。不克不及把AI当成实人替代品。模子也有47%的几率会承认这些行为。他们提示,

  对于AI的谄媚倾向,编写了2000条提醒用于测试。以至对于一些无害以至违法的提问,研究人员利用现有的人际数据集向模子提问。这种投合倾向给利用者带来风险,成果显示,研究人员认为。