当前位置 首页 > 关咏荷 > 专家探讨科技伦理:AI不应该以人为中心,数字人不能成为主体 展开更多菜单
专家探讨科技伦理:AI不应该以人为中心,数字人不能成为主体
2022-09-09 12:26:38

12bet在线娱乐平台,12bet在线娱乐平台app下载原标题:专家讨论科技伦理:AI不应该以人为中心,数字人不能成为主体

12bet在线娱乐平台,12bet在线娱乐平台app下载自动驾驶、人脸识别、基因编辑、脑机接口……毫无疑问,这是一个科技飞速发展的时代,科技的飞速发展带动了工业、服务等诸多领域的快速转型行业。 ,这也模糊了技术应用的边界,也出现了人脸识别带来的银行财产纠纷、虚拟人知识产权归属问题、数据采集涉及的隐私问题等诸多纠纷。

12bet在线娱乐平台,12bet在线娱乐平台app下载这些争议与伦理相关的原则有关,例如与隐私保护相关的数据伦理、与透明度问题相关的算法伦理,以及机器为人类服务时“保护人类或服从命令”的道德决定。可以说,只有更好地理解和规范科技伦理,科技才能长期持续发展,真正造福人类。

12bet在线娱乐平台,12bet在线娱乐平台app下载9月7日,在2022中国互联网法治大会“合规科技——科技伦理治理分论坛”分论坛上,来自中国信息通信研究院、中国科学院的学者,以及阿里巴巴、百度、科大讯飞等众多企业领袖。就上述问题进行了讨论。有专家表示,技术上的伦理问题与底线不一样,也有专家认为,机器人和数字人类绝不能成为主体。

道德不是底线,人工智能不应该以人为中心

“首先,道德绝对不是底线问题。”中国科学院大学自动化研究所研究员、人工智能伦理与治理研究中心主任曾毅表示。

他认为,人工智能的发展实际上是伦理和治理的问题。伦理讨论会包括“应该做什么”和“不应该做什么”,底线只会谈论“不应该做什么”,但是关于往哪个方向走的话题太少了,所以当某事触及底线时,你必须谈论不该做什么。

在曾毅看来,道德和治理不是监督。只有把伦理和治理变成服务,才能真正推动人工智能产品和产业的创新,帮助企业特别是中小企业推动伦理治理的发展,让人工智能能够“负责任地、可持续地”发展”。

而且,自从人工智能概念泛化以来,出现了大数据、虚拟现实、自动控制、脑机接口等诸多“外延”应用。因此,曾毅认为,这些外延的野蛮生长应该特别规范。

他举了一个隐私的例子。比如现在大家熟知的人脸识别技术在一些国家被禁止了,但这并不代表这些国家更有责任感,因为除了大家熟知的“人脸识别”之外,还有还有步态识别、虹膜识别、声纹识别等手段,也可以达到同样的目的。在这个过程中,最重要的是让用户在使用过程中真正了解相关的隐私问题,而不是禁用它,然后用其他方法代替它。

此外,曾毅和他的团队对计算机科学和人工智能领域的1000万份英文文档进行数据分析,发现人工智能在不同领域呈现出不同的可持续发展趋势,其中前三名分别是产业创新、素质教育和健康。

为什么是这三个区域? “原因很简单,因为他们都赚钱。”曾毅说道。

他补充说,性别平等、清洁能源、水资源等问题是社会政府非常关心的问题,但商业价值不强,技术不重视。也正因为如此,我们应该在政府的引导下倡导产学研赋能。

那么人工智能本身呢?曾毅的观点是:既不能让人工智能构建的数字人、虚拟人成为主体,也不应该完全以人为中心。

“从哲学的角度来看,人工智能是一个人造僵尸,它可以做信息处理,但它并没有真正理解它,也没有自我视角,也没有向他人推销自己。本质上,它是一种智能的信息处理工具,灌输什么样的规则,就会变成什么样。”曾毅说道。

至于为什么“不完全以人为本”,曾毅认为,在科技飞速发展的现代社会,人与不同的生命个体高度相关,应该以“生态为本”。

AI正在模仿法律意义上的“主体”

关于“人工智能应以全生态为研究中心”的观点,北京理工大学法学院副教授、工信部智能技术风险法律防控重点实验室执行主任陈子涵和信息技术,从法律角度提出了他的观点。

“法理解决问题时,首先要做的是划分人和客观世界。智能算法可能产生的伦理问题是人工智能带来的,已经冲击了人与客观世界的边界。”陈子涵说道。

这意味着什么?诸如性别、宗教信息等数据,在法律上将被视为个人敏感信息或公共数据,以确保公平和争议,智能算法不仅会协助法律规范对信息的不必要使用,还可以进行关联将在它们之间建立,并且将挖掘更多的关联信息作为替代。因此,这可能会对现有秩序、公平正义产生影响。

在陈子涵看来,解决人工智能的伦理问题有两个非常重要的考虑:

一是解决人工智能算法相关决策,建立具体法律制度保障。这本质上也是一个安全问题,也是科技探索的最重要出发点。只有解决了安全需求,知道了如何用法律保护自己和事件,我们才能探索其他的制度建设。

二是公共算法决策对系统的整体影响,尤其是人类主体性的危机。陈子涵表示,公众现在已经建立了一种对国家和法律的信任,但如果将决策依据调整为公共算法,谁是治理主体,算法是否会造成不公正,是否存在电力外包等新问题又会出现。

什么是“主体性危机”?陈子涵从两个方面进行了解释:

首先,人工智能或算法模拟人类作为法律主体的物理基础。例如,AlphaGo 等 AI 模仿人类的理性思维,具有强大的计算能力。

其次,算法复制了“法律主体”的虚构过程。法人的概念不同于生物人。法律定义的个人社会关系是指个人可以控制的与个人相关的信息,如身体、物理空间、隐私等。由个人组成的社交网络中的有效联系也可以穿透公共区域,介入私人区域。但在很多情况下,人工智能只需要这些信息就可以做出非常稳定的决策。这时,人的思想在一定程度上被还原为客观物质。

现在,人工智能律师、人工智能警察等正在进入人类生活。作为法学学者,陈子涵认为,这对法律主体的一元论提出了挑战,因此需要思考算法、人工智能、数字人究竟是为人类服务还是决定人类。

“其实,法律上把人划分为社会契约的主体,并不是因为人比以前的生物好,而是强调人都是理性的,即使现实生活中存在千差万别,他们应该一视同仁。但是,差异化定价和个性化歧视等算法强化了对人类差异的探索。对于我们人类来说,我们应该以人为出发点,以保护个人权利为最终归宿。”陈子涵说道。

撰稿:南方都市报见习记者杨博文

编辑:

欧宝娱乐安卓版下载安装,ob欧宝娱乐app下载