您好,欢迎来到报告网![登录] [注册]

曾毅:AI会习得人类偏见 应负责任地研发和使用

  9月5日,2024年外滩大会在上海黄浦世博园区开幕,大会主题为“科技·创造可持续未来”。大会期间,联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅表示,人工智能目前还做不到“知善知恶”,它可能习得人类社会中隐藏的偏见与局限,人类应当通过负责任地研发和使用人工智能,将人工智能塑造为人类的帮手。

  技术会加剧还是缓解社会不平等?曾毅表示,作为技术研究者,科学突破相对来说是最容易做的事,比做科学突破难一点的,是思考科学可能给社会带来的负面影响,而比这个更难的,就是如何去解决科学突破所带来的潜在风险。以前信息技术的时代,人们看到了“数字鸿沟”,人工智能的时代,在科学发现、构建工程系统的过程中,如果不考虑后两个问题,这一鸿沟必然会被加大。

  在曾毅看来,人工智能技术并非中立,它的起点在于数据和算法,而这两件事都是可能产生偏见的。数据来自社会,社会当中的数据是对于人类行为的记录,所以学习了人类数据的人工智能不仅学到了人类的偏见,还会放大这种偏见。人工智能在接触人类数据之前是无善无恶的,当它接触到人类数据的时候就变成“有善有恶”,人们希望人工智能“知善知恶”,最后“为善去恶”,但目前的人工智能还做不到这一点。

VIP专享文档

扫一扫,畅享阅读

我要投稿 版权投诉
  1. 标签 人类
  2. 机构、内容合作请点这里: 寻求合作>>
人类行业标签

Th**am

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2024 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13