研究人员警示:人工智能算法可以影响人们的决定 需就算法的影响进行公共教育

2021年05月01日 21:28 次阅读 稿源:cnBeta.COM 条评论

在一系列新的实验中,人工智能(A.I.)算法能够影响人们对虚构的政治候选人或潜在的浪漫伴侣的偏好,这取决于建议是明确的还是隐蔽的。西班牙毕尔巴鄂德乌斯托大学的Ujué Agudo和Helena Matute于2021年4月21日在开放性期刊PLOS ONE上发表了这些发现。

访问:

阿里云6·18主会场 | 天猫6·18 超级红包主会场

京东6·18“京享红包” 最大面额18618元

AI-Algorithms-Dating-Decisions-scaled.jpg

从Facebook到谷歌搜索结果,许多人每天都会遇到人工智能算法。私人公司正在对其用户的数据进行广泛的研究,产生对人类行为的见解,而这些见解是不公开的。学术社会科学研究落后于私人研究,关于人工智能算法如何塑造人们的决定的公共知识是缺乏的。

为了说明问题,Agudo和Matute进行了一系列实验,测试人工智能算法在不同环境中的影响。他们招募参与者与那些展示虚构的政治候选人或在线约会候选人照片的算法进行互动,并要求参与者表明他们会投票给谁或给谁留言。这些算法明确地(如 "90%的兼容性")或隐蔽地(如比其他候选人更经常地展示他们的照片)促成一些候选人当选。

总的来说,实验表明,算法对参与者决定投票给谁或给谁留言有重大影响。对于政治决定,明确的操纵对决定有很大影响,而隐蔽的操纵则没有效果。对于约会的决定,则出现了相反的效果。

研究人员推测,这些结果可能反映了人们在约会等主观问题上更喜欢人类的明确建议,而人们在理性的政治决策上可能更喜欢算法建议。

鉴于他们的发现,作者表示支持旨在提高人工智能可信度的倡议,如欧盟委员会的《可信人工智能伦理准则》和DARPA的可解释人工智能(XAI)计划。不过,他们还是提醒说,需要更多公开的研究来了解人类对算法的脆弱性。

同时,研究人员呼吁努力教育公众,让他们了解盲目信任算法建议的风险。他们还强调,需要围绕驱动这些算法的数据的所有权进行讨论。

作者补充说:"如果像我们这样一个虚构的、简单的算法可以在没有建立参与者的实际定制档案(并在所有情况下使用相同的照片)的情况下实现这样的说服力,那么一个更复杂的算法,如人们在日常生活中与之互动的那些算法,当然应该能够施加更强大的影响。"

对文章打分

研究人员警示:人工智能算法可以影响人们的决定 需就算法的影响进行公共教育

1 (33%)
已有 条意见

    最新资讯

    加载中...

    今日最热

    加载中...

    热门评论

      Top 10

      招聘


      Advertisment ad adsense googles cpro.baidu.com
      created by ceallan