人工智能产业发展的法治路径

[《文化学刊》2024年第2期], 国研网 发布于 2024/4/17


当下,互联网、大数据和人工智能正迅猛发展,智能化时代塑造了社会各行业,人工智能成为其中核心推动力。在享受便利和好处的同时,人工智能也伴随着风险。因此,有效预防和控制风险,法治化规范管理成为当务之急。笔者深入探讨了人工智能产业发展的法治路径,结合法学理论与实践,分析产业面临的法律问题,并提出相应法治策略。首先,分析人工智能产业的特点及其法治必要性;其次,从数字法学角度,探讨发展过程中涉及的隐私保护、数据安全、伦理道德和责任认定等问题;最后,提出完善我国人工智能产业法律制度的建议,强调加强法律监管,确保技术合规发展,促进产业的健康可持续发展。

摘要:当下,互联网大数据和人工智能正迅猛发展,智能化时代塑造了社会各行业,人工智能成为其中核心推动力在享受便利和好处的同时,人工智能也伴随着风险因此,有效预防和控制风险,法治化规范管理成为当务之急笔者深入探讨了人工智能产业发展的法治路径,结合法学理论与实践,分析产业面临的法律问题,并提出相应法治策略首先,分析人工智能产业的特点及其法治必要性;其次,从数字法学角度,探讨发展过程中涉及的隐私保护数据安全伦理道德和责任认定等问题;最后,提出完善我国人工智能产业法律制度的建议,强调加强法律监管,确保技术合规发展,促进产业的健康可持续发展

关键词:人工智能,互联网,大数据,法治化

问题的提出

近年来,我国高度重视人工智能产业,国家大力出台方针政策,激励人工智能的创造性发展,以推动中国经济的持续增长和社会进步,《关于支持建设新一代人工智能示范应用场景的通知》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《新型数据中心发展三年行动计划(20212023年)》等产业政策的实施,确保我国人工智能产业的长期发展人工智能成为国家战略核心,是全球竞争和经济创新的关键数字经济和社会数字化水平提高,人工智能深度融合各产业,推动传统产业转型自动驾驶技术智能机器人和人脸识别技术的应用为人们带来高效便利的同时也伴随着风险首先,隐私保护问题凸显随着数据成为财富源泉,个人隐私内容可能被他人获取,引发“所有数据由我们产生,但所有权不归属于我们”的担忧[1]每天生活在人工智能时代,个人兴趣消费喜好健康情况等都可能被他人知晓,“计算机科学正在将你的生活转化为他人的商机”[2]其次,数据安全问题亟待解决人工智能的飞速发展涉及数据滥用非法交易和泄露个人信息等事件一些人工智能应用可能过度使用用户数据,侵犯用户隐私和权益非法交易或泄露用户数据会导致经济损失等严重后果再次,伦理风险成为重要问题智能机器人缺乏道德观和伦理观,需要深入思考伴侣机器人的陪伴职能如何规范处理技术约束导致的算法偏见和算法歧视等问题商业利益与算法“善恶”之间的平衡也值得关注最后,责任风险需要明确解决随着自动驾驶汽车医疗机器人等应用的出现,人工智能导致事故的责任界定成为问题机器人的身份地位行为责任等问题亟需建立法律框架明确规范解决这些风险,确保智能服务为人类创造美好生活,是人工智能产业未来不断追求的目标和发展路径

人工智能产业的特点及法治的必要性

(一)人工智能产业的特点

1.活力新颖性

人工智能是数字经济的关键支撑技术,呈现广泛应用经济带动力强的特点大多数人工智能企业处于创新初期,以中小规模居多,展现了产业的活力和潜力数字经济建设推动人工智能产业迅猛发展,不断涌现的新应用推动了各行业的创新升级,成为产业升级的主要动力

2.交叉融合性

人工智能技术具有赋能百业的特性,可与各行业深度融合,是提升生活质量和经济效率的关键工具该产业的交叉融合性在多学科交叉上体现明显,包括计算机科学数学生物学等同时,人工智能技术能助力医疗金融制造等各行业提升效率,推动产业升级人工智能与不同行业的结合,如“人工智能+金融”“人工智能+医疗”,进一步促进了创新

3.应用广泛性

人工智能产业应用广泛,能解决各行业和领域问题在医疗领域,可辅助医生进行疾病诊断和治疗计划,提升医疗水平在金融领域,通过数据分析提供准确的信用评估和风险预测,降低金融风险自然语言处理技术赋予机器理解和处理人类语言的能力,支持自动驾驶安防监控等领域机器视觉技术助力图像和视频处理,推动智慧城市和智能制造等领域发展智能制造通过实现工业互联网,优化工艺流程,提高效率,推动经济发展和产业升级

4.数据驱动性

人工智能发展依赖大量结构化和非结构化数据,作为算法和模型训练的基础数据规模质量和多样性对系统性能至关重要,迭代和验证提高准确性人工智能推动新的数据处理方式,促进数据科学和机器学习发展数据驱动实现智能自动化和高效化决策,为各行业提供支持数据是人工智能发展的关键资源,不断推动产业创新

(二)人工智能产业发展法治的必要性

人工智能产业迅速崛起,带来创新和便利,但也引发个人隐私数据安全伦理道德和责任追究等法律和伦理问题因此,实施法治规制迫切必要,以确保人工智能产业健康发展和保护公民权益首先,有助于平衡科技创新与隐私保护之间的关系人工智能技术的不断进步带来了对个人隐私信息更加深入的挖掘和利用,需要法律明确规定个人数据的收集处理和使用原则,以避免滥用和侵犯其次,能够建立公平竞争和市场秩序规范人工智能产业的行为,防止不正当竞争和数据滥用有助于促进市场的公平竞争,推动技术创新的同时保障企业和消费者的权益第三,有助于应对潜在的风险和安全问题对于人工智能在决策安全和生活各个领域的广泛应用,建立明确的法规框架有助于防范可能的安全漏洞和风险,确保人工智能技术的可持续和安全发展最后,能够提升社会对人工智能的信任度通过建立透明可执行的法规,公众能够更加信任人工智能技术的发展和应用,增强社会对新技术的接受度因此,为了维护公共利益促进科技创新与社会稳定的良性互动,建立健全的法治体系对于引导和规范人工智能产业发展至关重要

人工智能产业发展面临的法治问

人工智能是当前最热门的技术之一,正快速改变我们的生活和社会然而,随着其技术广泛应用和高度发展,涉及的法治问题也日益凸显,包括隐私保护数据安全伦理道德责任追究等方面

(一)隐私保护的法治问题

隐私权不仅是基本私权,更是人权的重要组成部分随着时间推移,对隐私权的保护逐渐从住宅扩展到公共场所,关注焦点也从场所向个人转变[3]随着互联网大数据云计算和人工智能等技术不断进步,各领域正在加速数字化,人们的日常生活也实现了数字化呈现[4]人工智能广泛应用引发了个人隐私信息收集问题尽管带来便利,但我们的个人资料在数字信息链中被大数据企业掌握智能设备过度采集个人隐私,如智能穿戴智能门锁等,未经同意即用于产品智能化用户授权不一致问题的存在,从互联网和企业采购等渠道获取训练数据难以确保合法性人工智能利用生物特征信息,如人脸基因指纹,一旦泄露将威胁个人安全和利益合规采集和使用个人敏感信息,尤其是生物特征信息,需高度重视信息安全问题在追求安全长寿和可预测性时,代价是丧失隐私和个人生活[5]在人工智能产业快速发展时,即使人们认识到保护个人隐私的重要性,但由于缺乏足够能力和方法去保护隐私而感到无奈随着人工智能应用普及,每天使用的技术广泛收集隐私信息,侵权问题不容忽视因此,在我国大力发展人工智能产业的同时,有必要实施相应的控制措施来保护人类的基本人权

(二)数据安全的法治问题

如今,我们每天接触大量信息和数据,个人言行成为独特的社会资源在大数据时代,数据安全问题凸显,涉及原始数据的复杂生产加工和使用过程然而,作为数据的产生者和使用者,我们无法掌握使用的信息技术基础设施,导致数据由我们产生,但所有权不属于我们人工智能滥用引发了数据安全问题,包括过度采集歧视滥用和垄断数据滥用风险涉及社会消费领域的差异化定价和信息传播领域的“信息茧房”效应,侵害用户权益,可能导致社会认知鸿沟和影响个人意志选择此外,人工智能收集和分析操作记录可以得出个人数据信息,随着所有权或使用权的流转而不断流转[6],个人在网络中处于无防护状态,智能系统利用这些信息进行产品推送,可能将用户置于被操控的境地个人数据不断被收集分析流转,存在被不法分子利用的风险,侵犯个人隐私人身权和财产权人工智能深度学习通过模拟人脑神经元建立神经网络[7],但机器学习的“算法黑箱”和不可解释性可能导致系统带来更大伤害,决策偏差难以消除人工智能在选择和分析数据时具有特定价值倾向,可能是程序员或输入数据偏差导致的,导致带有歧视性的决策结果[8]数据安全是人工智能技术安全的关键因素,因为人工智能的核心在于数据安全,“数据为体,智能为用”———数据为提供学习样本,人工智能的工作原理是基于大数据集和统计数据驱动的模式匹配过程[9],因此,数据安全问题亟待解决

(三)伦理道德的法治问题

在人工智能中,融入人类知识建模和算法,逐渐发展成为强人工智能,具备自主学习模拟人类智慧行为和感情的能力人工智能能够执行人类的任务,形成了人机共存的工作与生活场景尽管人工智能为人类带来了便利和高效,但也不断冲击着我们现有的法律伦理与秩序[10]随着人工智能技术不断进步,其自主性和复杂性日益提高,可能引发一些伦理道德问题人工智能的迅速发展塑造了人机共处的新时代,机器人的复杂性常常与千百年来人类创造的传统世界产生冲突随着机器人的复杂化,它们既非人类的奴隶,也非主人,而是伙伴随着智能机器人是否应被视为“人”问题的日益突显,人工智能系统在自动驾驶汽车危急时刻的决策中面临着一系列伦理困扰:是优先保护妇女儿童还是老人车内乘客还是路人少数人还是多数人呢?人与陪伴机器人之间是否存在伦理关系?将人类伦理道德转化为智能系统的决策程序和算法牵涉到传统理论难以解决的权利义务关系在当前人工智能迅速发展的时代,亟需进行人工智能伦理道德和理论制度的创新

(四)责任追究的法治问题

人工智能飞速发展,导致多数劳动力被替代如自动驾驶和医疗机器人中,人类与机器需要协同工作,相互配合,共同完成任务人工智能机器执行的任务所发生的结果可能会影响着我们的利益[11]因此,智能机器人应被授予什么样的身份呢?或者机器人的行为应由哪些人来负责呢[12]?人工智能处理的任务日益增多,人们倾向于将失败归咎于机器的现象逐渐普遍现代社会通常追求通过技术手段减小个体或集体的责任,而非强调如何提高技术效率或加强个体或集体的责任感在追究设计者和使用者责任时需谨慎,不可过度尽管设计师与人工智能密切相关,但两者职责并非完全相同仅将人类设计师视为道德主体可能忽略科技和计算机系统对人类行为的影响在智能机器人医疗事故自动驾驶汽车交通事故无人机误判导致平民伤亡等问题上,原则上责任可归于设计者然而,程序可能由多人共同研发,难以追责到具体个人或组织,与产品零部件的明确归属不同[13]由此,就会产生责任困境和风险

人工智能产业发展的法治建议

(一)隐私保护的法治建议

完善法律法规是保护隐私权的首要任务应确立隐私权法律地位,并将其纳入民事法律体系,并颁布相关法规同时,强调对互联网平台的监管,限制其对公众用户数据的过度收集存储使用和共享,以杜绝信息滥用和泄露的可能性为了强化监管力度,需要建立健全监管机制,特别关注隐私保护监管政府部门应对企业和互联网平台进行监管,并设立专门机构负责隐私保护监管,同时提高对违法行为的处罚力度用户的授权同意是个人信息采集和使用的基本原则要求用户经过清晰的同意和授权,未经授权的信息不得用于商业目的建立透明的信息公开和说明机制,以提高用户对信息使用和保护的了解为了及时发现和应对隐私泄露事件,应建立隐私泄露报告制度企业和互联网平台需在发现隐私泄露事件后迅速报告展开调查和处理同时,应强化对泄露事件的责任追究和处罚力度,以提高企业和个人的隐私保护意识在技术层面,推动隐私保护技术的研发和应用是至关重要的采用新技术手段,如加密匿名化等来确保用户数据的安全性与此同时,应加强对新技术应用的监管,确保其符合法律法规和标准的要求

(二)数据安全的法治建议

首先,加快数据安全法律立法现行法规未能全面覆盖解决人工智能数据安全问题,特别是在数据市场交易平稳性和匿名化处理方面的法律存在空缺为确保数据安全,迫切需要构建完善的数据安全法律体系其次,进行数据确权重视数据私法确权,解决数据权属问题至关重要我国已在数据安全网络安全和个人信息保护领域出台相关法律法规,但数据权属尚不明确,应分类确立个人企业和公共数据权在确权过程中,以保护人格权价值贡献和平衡个人权利与产业利益为原则,构建新型数据财产权该权利基于多种子权利,如数据来源者权数据持有者权数据生产者权,对数据进行场景化分类,形成数据权利基础框架最后,建立数据安全“监管沙箱”过紧的监管可能阻碍人工智能产业发展,产生“寒蝉效应”;过松的监管则导致数据安全风险泛滥,侵害公共利益监管沙箱为新型人工智能产品和技术提供法外的测试环境,促进技术试错和完善将数据安全风险控制在沙箱内,检测解决人工智能产品的数据安全问题,并在测试中提供保护性措施,鼓励社会利益保护和产业创新

(三)伦理道德的法治建议

首先,制定相关伦理道德的制度政府及相关机构应制定隐私和数据安全法律,明确人工智能系统的责任与义务,包括遵循伦理和道德准则,并规定对违反者的相应法律与惩罚措施其次,建立人工智能透明度和负责任的评估体系在实施人工智能技术之前,公司和组织需要对其可能带来的伦理和道德问题进行透明度和负责任的评估这种评估应该包括预测和解决可能出现的问题,以及对人工智能系统的性能和安全性的全面考量最后,加强社会监督和完善伦理审查机制社会监督是指社会公众对人工智能技术的监督和管理公众应该能够了解人工智能系统的运作原理数据来源和使用目的等信息,并能够对其提出质疑和意见同时,还需要完善伦理审查机制,对人工智能技术的开发和应用进行严格的伦理审查,确保其符合社会公德和人类价值观

(四)责任追究的法治建议

人工智能责任方面要完善相关的人工智能侵权的法律法规制度一是制定侵权主体认定的相关制度,可以将人工智能分为两类,一类是工具型人工智能,即弱人工智能,比如现在的扫地机器人智能手表等;另一类是认知人工智能,即强人工智能,其不再是一个简单的机器,而是具有“自主认知性”而人工智能侵权又可以分为一般侵权和特殊侵权一般侵权包括质量问题导致的侵权和操作不当导致的侵权特殊侵权是强人工智能在自主学习的过程中自己引发的侵权,属于设计者不能预测的侵权在一般侵权的情形都为工具型人工智能,其本质上属于一种高科技产品[14],所以,可以将此种类型的责任追究直接归入侵权责任法中的产品责任的类别对于操作不当实际上是有自然人介入,其实侵权人也就是使用者而特殊侵权就复杂得多,究其根本是要不要承认人工智能具有主体地位笔者认为在当下日新月异的时代,若人工智能已经有自己独立的思维能力,承认人工智能的主体地位是有必要的,这有助于更好地规范和指导人工智能的发展和应用,但此类主体地位可以区别于自然人,以“法律人格拟制”的方法使人工智能享有主体资格,以此来应对我们时代的变革

结语

人工智能产业的法治路径需完善隐私保护数据安全伦理道德责任追究等方面在技术迅速发展的背景下,有效的法治规范可促进人工智能发展,保护相关方权益,提高技术社会认可度,推动产业可持续发展需要加强研究和实践,不断完善法规政策,适应技术发展和应用场景拓展希望人工智能未来在法治框架下为人类提供更多便利

参考文献

[1]王天一.人工智能革命历史当下与未来[M].北京:北京时代华文书局,2017:184.

[2]皮埃罗·斯加鲁菲.智能的本质———人工智能与机器人领域的64个大问题[M].任莉,等,译.北京:人民邮电出版社,2017:170-171.

[3]刘新年,等.大数据时代下,如何保护隐私权[N].检察日报,2013-8-235.

[4]马长山.数字时代的人权保护境遇及其应对[J].求是学刊,2020474:103-111.

[5]马尔克·杜甘,克里斯托夫·拉贝.赤裸裸的人一大数据隐私与窥视[M].杜燕,译.上海:上海科学技术出版社,2017:144.

[6]祝高峰.论人工智能领域个人信息安全法律保护[J].重庆大学学报(社会科学版),2020264:150-160.

[7]林伟.人工智能数据安全风险及应对[J].情报杂志,20224110:105-111+88.

[8]夏玉明,石英村.人工智能发展与数据安全挑战[J].信息安全与通信保密,202012:70-78.

[9]Thomas D GDamon J W.Show Us the Data:PrivacyExplainabilityand Why the Law Cant Have Both[J].George Washington Law Review20206:1350-1420.

[10]马长山.面向智慧社会的法学转型[J].中国大学教学,20189:33-39.

[11]劳伦斯·莱斯格.代码2.0:网络空间中法律[M].李旭,等,译.北京:清华大学出版社,2009:79.

[12]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018366:47-55.

[13]王利明.人工智能时代对民法学的新挑战[J].东方法学,20183:4-9.

[14]钱思雯.弱人工智能时代的法律回应———构建以产品责任为核心的责任分配体系[J].中国科技论坛,20199:76-84.

作者简介:赵大陆(1997—),男,山东临沂人,黑龙江大学法学院,主要从事经济法学研究;高伯阳(1997—),男,广东深圳人,黑龙江大学法学院,主要从事经济法学研究

© 天津科技网 版权所有
津ICP备05001152号 津公网安备 12010302000961号