会员投稿 搜索:
您的位置: 主页 > 深度 > 风险防范 > 正文

人大代表:为防范重大风险 需针对人工智能应用立法

来源: 北京青年报 点击这里给我发消息 转发至: 分享到QQ空间 百度收藏 人人网 开心网 豆瓣网

原标题:为防范重大风险 需针对人工智能应用立法

全新挑战 邵志清表示,现有的案例中,有的是机器通过自主学习、提升识别能力帮助人实施犯罪,有的是因为机器完全自主的行为导致人员伤亡,这对如何认定责任主体和行为意愿提出了全新的挑战。

酝酿议案 全国人大代表、致公党中央委员邵志清

3月4日下午,在第十三届全国人民代表大会第二次会议上海代表团的“议案酝酿会”上,全国人大代表、致公党中央委员邵志清,提出关于制定人工智能应用管理法的议案。邵志清表示,对人工智能的应用管理,重点应该围绕伦理道德、资源获取、主体认定、行为认定和责任划分等方面进行立法。

其中,在伦理道德方面,明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面,“用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会”。

现象

AI带来变革 社会问题凸显

邵志清代表指出,随着新一代信息技术的快速发展,人工智能正对人类生产生活方式带来全方位的深刻变革。“我国人工智能在电子商务、自动驾驶、生活服务、医疗健康、工业机器人等领域的应用走在世界前列。”

他表示,在造福人类的同时,人工智能所带来的社会问题也逐渐显现,“开始从技术领域、民事领域向刑事领域转变。比如:利用使用人工智能技术侵犯公民个人信息、竞争对手商业秘密,甚至危害人的健康生命、社会的安全稳定。”

邵志清代表举例说,2017年9月,浙江警方破获全国首例运用人工智能实施犯罪的案件。涉案平台利用人工智能技术快速识别验证码,截获、贩卖了10亿多组公民个人信息,供合作团伙进行网络诈骗。2015年7月英国《金融时报》报道了德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然抓起,重重摔向金属板而不治身亡。“包括去年在生物领域,人工智能的运用也带来了一些困扰。”

挑战

若机器致人伤亡 归责成难题

邵志清表示,现有的案例中,有的是机器通过自主学习、提升识别能力帮助人实施犯罪,有的是因为机器完全自主的行为导致人员伤亡,这对如何认定责任主体和行为意愿提出了全新的挑战。“传统的刑法领域,只有自然人才是刑法规制的主体,在人工智能应用场景下,很多机器成为了主体。”另外,机器的主观意愿的认定也面临着困难。“对于这类问题,现有的法律难以规范。”

此外,2016年以来,一些国家和机构对人工智能法律制订进行了一些探索。以自动驾驶领域为例,德国对《德国道路交通条例》所规定的“驾驶员在车辆行驶过程中全程保持警惕”、“驾驶员的手不能离开方向盘”等条文启动立法修正。

近几年,我国也对自动驾驶车辆测试方面进行管理规范,2017年,工业和信息化部开始就《智能网联汽车公共道路适应性验证管理规范(试行)》初稿组织业界和专家讨论。随后,多地发布自动驾驶车辆道路测试管理实施细则。“这些探索和实践,为制定人工智能应用管理法提供了有益的参考和依据。”他补充道。

观点

需要针对应用、归责等进行立法

邵志清指出,为了防范重大风险,需要针对人工智能的具体应用进行立法。“人工智能的应用管理,应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。”

在伦理道德方面,明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面,用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。

在资源获取方面,明确禁止采集个人隐私、商业秘密、国家机密的资料、信息、数据,避免被人和机器恶意利用,从源头上遏制人工智能的不法应用。

在主体认定上,明确具有自主学习、思考、行动能力的机器人成为适格主体的应用场景和应用前提等,明确机器人与自然人主体进行区分认定和共同认定的条件和依据等。

在行为认定上,明确认定机器人意图的原则,特别是要解决机器人基于人工智能进行独立判断和决定所实施侵害的主观方面认定问题。

在责任划分上,明确责任划分和处罚的原则。一旦有侵害发生,让智能机器人的使用者、制造者、机器人本身承担严格区分的相关责任。

 





 

责任编辑:乔慧

Tags:
转发至: 分享到QQ空间 百度收藏 人人网 开心网 豆瓣网
?
??
免责声明:本文仅代表作者个人观点,与环渤海财经无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
最新图文信息资讯
关于环渤海财经 - 联系我们 - 广告服务 - 友情链接 - 网站地图 - 版权声明 - 杂志订阅 - 帮助