人工智能时代的社会风险

2022-05-10 版权声明 我要投稿

摘要:人工智能作为当今最具前瞻性的高新科学技术,发展遍及社会生活的各个领域,同时广受关注。人工智能为我们的生活提供极大的便捷,人类似乎渴求一个全人工智能时代的到来,并准备投入其怀抱。但科学技术的发展从来都是一把双刃剑,我们在享受其便利的同时也应该着眼于人工智能所引发的诸多社会风险,并且考量与分析其可能存在的潜在新风险。人工智能引发的社会风险无外乎可以从人工智能的制造与应用两方面来考虑,分析其带来的社会风险,并从相应方面提出规避风险的可能路径。

关键词:人工智能;社会风险;风险规避;可能路径;

人工智能(Artificial Intelligence)简称AI,从科学的角度来看,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术应用系统的一门科学。[1]1956年美国的达特茅斯会议中约翰·麦卡锡首次提出了“人工智能”这个术语,标志着“人工智能”概念的诞生,在此后人工智能浪潮不断发展。从“机器学习”到“深度学习”技术鸿沟的跨越,人工智能在一段时间内获得长足性和突破性的发展。人工智能在影响着这个时代,也在改变着这个时代。人工智能在数据挖掘、计算机视觉、专家系统等方面的发展,为企业带来了经济效益,为大众带来了舒适的生活,为国家带来科技的革新,深刻影响着人类社会的发展。然而,我们享受着人工智能的便捷也不能忽视其带来的负面影响。人工智能对人类主体地位的冲击,对社会伦理的挑战等诸多风险都是我们必须要思考和解决的问题。

二、人工智能时代社会风险思考的必要性

在现阶段下的人工智能给我们生活带来了便捷,其负面影响是不可忽视的。研发不透明的黑箱操作,算法主观性带来的伦理问题,一些行业失业等问题,从现实意义上,我们必须对其产生的社会风险加以分析并提出应对措施。在人工智能发展过程中,人工智能是否超过人类智力即奇点是否会出现,一直是学界谈论的热点。奇点是否会出现?奇点出现后的人类社会又会面临什么样的风险,人工智能技术发展可能性决定了我们必须去思考其潜在的风险。所以无论从人工智能的现实性还是可能性来看,关于人工智能时代的社会风险思考都有其必要性。

三、人工智能时代社会风险思考的现实性

人工智能研发是不透明的,人工智能的研发“虚拟化”和研发过程的“黑箱效应”环境,很容易脱离监管而引发失控。同时由于人工智技术研发的特点,研发过程的隐秘性与技术的保密性极易诱发垄断现象。一旦掌握了人工智能技术核心优势,极易可能出现垄断阴云。人工智能技术垄断的阴云一方面会带来技术人才的断层,同时也会进一步加大数字鸿沟。在现目前的发展阶段来说,人工智能已经逐步取代大量依靠人力的工作,在一些行业已经实现了自动化,同时人工智能也进军了服务行业。在服务行业,国内的无人酒店与无人超市也已出现,海底捞机器人全程送菜服务。繁重或者危险及简单重复的工作由人工智能机器人所替代,纵然人工智能的操控离不开人,但从管理与操控的工作要求来看,劳动力需求量并不高。这一大批依靠劳力的工作者将何去何从?从现实意义上,我们都必须对其产生的社会风险加以深度思考与分析并提出可行的应对措施,促进人工智能健康有序地发展。

四、人工智能时代社会风险思考的可能性

从现实层面上看,人工智能已经带来的问题我们必须去面对,与此同时随着人工智能的继续发展,我们也不得不去思考其潜在的风险。其潜在风险的思考主要在于对奇点的预判。美国未来学家、人工智能先驱雷·库兹韦尔在《奇点临近》一书中大胆预言,21世纪50年代左右,奇点会来临,人工智能将超越人类智力。1983年数学家弗诺·文奇,他认为奇点来临后,世界的发展将会脱离人类世界的掌控。人工智能超越人类智力这一天是否会到来,人类又会面临什么样的风险?尽管诸如此类的问题我们没法预判。但是从人工智能的发展来看,人工智能对人类思维的模拟只会走向更精细化、更精密化。对人类社会的发展来说是机遇,又是挑战。而这也意味着我们对人工智能的社会风险研究必须引起重视,必须深入。

对于人工智能的风险研究我们既要解决好当下的风险,又要有防范未来风险的正确进路。

五、人工智能时代社会风险思考的重要性

人工智能时代的社会风险思考是从人工智能的现实性与可能性,实践性与理论性层面出发,对其社会风险进行剖析与研究。通过对风险的思考,提出解决风险的可能路径。研究人工智能时代的社会风险思考具有十分重大的意义。人工智能的社会风险研究是时代的课题,我们必须回答。在理论意义上,丰富了人工智能社会风险研究内容,推动人工智能研究理论体系的不断完善。在实践层面上来看,研究人工智能时代的社会风险一方面可以帮助人类找准自身定位,同时又能消除人类对人工智能未来发展的恐惧,有利于人类清楚定位,处理好人与人工智能的关系;同时人工智能社会风险的研究也能在一定程度上提示社会发展中应注意人工智能发展潜在的社会风险,促使相应的规避路径的研究,进而促进人工智能的有序发展,从而造福人类。

六、人工智能时代的社会风险分析

关于人工智能时代的社会风险研究视角是丰富的。社会风险治理专家唐钧从技术、社会、治理三个视角分析所产生的社会风险并提出应对措施。马长山在分析人工智能的本质上结合法律的视角,提出人工智能引发的五个风险——伦理、极化、异化、规则、责任风险,并从法律层面给出详细的应对措施。也有学者从风险的危害程度视角做出研究。吴汉东则是从人工智能社会风险的特征提出人工智能时代的冷思考,宏观提出人工智能存在的四个问题——法律、伦理、社会、监管。

结合以上研究成果,人工智能时代社会风险可以从两个方面来分析,无外乎在于两个关键点,一为制造方面,二为应用方面。从制造方面来看,一是技术的不完善带来风险,技术制造本身的缺陷而导致风险的产生。二是研发人员的主观性造成的风险,也就是人工智能算法主观性和算法偏差,因为在制造过程中,研发人员的主动裁量权很大,研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差。三是研发技术的垄断,从而造成的数字鸿沟,两端极化的风险。从应用方面来看,社会风险则会涉及更多的方面,人的社会主体地位的冲击、社会安全、社会伦理的风险等。人工智能的社会风险可以从制造端和应用方面分析,因为二者是没法割裂的。综合制造方面和应用方面的分析,人工智能时代的社会风险存在如下风险:社会主体的缺失、触发社会安全问题、社会伦理经受挑战、社会治理出现困境。

(一)社会主体的缺失感

2016年世界经济论坛发布报告:未来五年,人工智能技术的发展将使全球劳动力市场出现颠覆性的变革,全球15个主要国家的就业岗位将会减少710万个,上千人将会面临失业。[2]人工智能把人类从低级的劳务工作中解放,提高了工作效率,但同时又给人带来了失业的困扰。如果说人工智能引发的失业风险只是作为一个小小的引爆点,那么随着科技的快速发展,进而可能出现人类可能会被人工智能代替的强人工智能时代所引发的冲击感与危机感将会更加引人深思。当人工智能完全取代了人类的工作,人类看似获得了解放与自由,但此时人的存在感和主体地位是否会缺失呢?人类存在和发展的本来意义又在何处?无用阶层会出现吗?或许在强人工智能时代来临之前,我们更需要一场人类自身思想的对话。我们如何正确看待人工智能?我们如何重新定义人的价值与意义?我们如何建构新的人机关系?

(二)社会安全问题的触发

人工智能的发展可能触发社会安全问题。人工智能的社会安全风险从制造到应用都是不可忽视的。制造方面,技术本身安全性的考量。如若存在技术漏洞是非常容易造成风险,从应用的方面看引发的安全问题则是个人隐私泄露和危及国家安全。大数据时代对个人隐私的分析与监测,个人的信息很容易被采集,人类进入一个没有隐私的时代。我们的隐私如何保护?个人隐私安全问题必须引起重视。人工智能日后将会成为国家安全领域的颠覆性力量,因为人工智能影响范围是非常广的,人工智能对经济安全、政治安全、军事安全都将产生重要影响。

(三)社会伦理受到挑战

人工智能也让社会伦理受到挑战。一方面,在制造方面,人工智能算法主观性包括算法偏差和算法歧视,由于在制造过程中,研发人员的主动裁量权很大。研发人员可能存在种族歧视、性别偏见、宗教偏好、极端价值观等主观偏差,代入研发后算法将出现失误,导致社会伦理问题的出现。[3]人工智能的发展,对人类思维的模拟越显高级化,随着自主智能机器人的强大,它可以在社会中扮演什么角色?在法律上又属于什么角色呢?是人?还是物?还是什么?在人工智能发展的同时需要我们去厘清与解决诸多伦理问题。

(四)社会治理出现困境

人工智能所带来的社会主体缺失、社会安全、社会伦理等社会风险如果得不到足够的重视与解决,整个社会治理便会出现困境,人类社会也会因为人工智能的发展走向不可控的局面。所以我们必须提出相应的规避路径。

七、人工智能时代的社会风险规避可能路径

人工智能时代的社会风险规避可能路径也可从人工智能的制造与应用方面出发,结合出现的社会风险提出针对性的规避可能路径。

(一)正确认识人与人工智能的本质关系

人工智能的发展给人带来主体性的缺失感,正确的认识人与人工智能的关系,有助于我们减少因人工智能发展而带来的危机感。马克思主义者认为,劳动是人的本质属性,是人主体性的存在[3]。人工智能只能是作为人的创造物,虽然模拟着人的思维,但终究不是人,永远不能成为价值主体,也不能成为目的性的存在。人与人工智能的本质关系是主体与客体的关系。我们要正确看待人与人工智能的本质关系,必须坚持“以人为本”的原则,建立与人工智能共享共存的关系。人工智能作为人对象化的产物,人必须把握好度,从造福人类的角度出发,把控好智能的程度。

(二)建立和完善法律规范与监管制度

在人工智能的制造与应用方面,设立相应的法律法规,来弥补法律的空缺。当前最火爆的人工智能的若干领域,国家应该进行研究,并在必要的时候出台相应的政策文件,包括法律文件。其次,人工智能应设立相应的监管制度,因为人工智能的特殊性,对监管技术也有着高要求,必须相应地提高监管技术。相应的法律规范和监管制度在人工智能的制造和应用方面都将会发挥极大的作用。

(三)完善人工智能伦理制度建设

人工智能伦理制度的建设,能够保证人的主体性与导向作用;能够明确生产者、使用者、管理者的主体责任,保证了人工智能产品的合法应用与正确方向。风险的规避从制造与应用来思考,伦理制度的建设也同样如此。在制造方面从设计伦理出发,应用方面则从应用规范伦理出发,加强完善人工智能伦理制度建设。设计伦理旨在从源头上预判人工智能研发可能带来的风险,即制造端出发。为了减少算法的歧视性和偏差性,算法决策需要遵循程序正义的要求。对于研发人员也应该有相应的学术道德规范要求。应用规范伦理主要是从应用方面出发,针对的是使用的群体。必须要对使用群体进行制度约束和规范,保证其安全性。同时使用群体自身素养的提高也显得十分必要,内化于心,促进和完善人工智能伦理制度的建设。

(四)国际沟通与协作

人工智能时代的社会风险是全球性的,没有地理边界,也没有文化的边界。掌握核心技术的国家,不能各自为营,走向垄断。人工智能发展的力量是具有颠覆性的,在今天这个互联网时代,人工智能的风险是全球性的,没有哪一个国家能独善其身。在面对人工智能社会风险时,我们要打破偏见,冲破垄断的阴云,缩小数字鸿沟。用对话与合作来应对全球性的风险,推动人工智能的完善与发展,推动人类社会的进步。

八、结语

人工智能的发展为人们的生活带来了舒适,也带来了一定的社会风险。当我们对社会风险进行科学的分析与应对后,促进人工智能研究的完善,但最终的目的更是造福于人类。科学分析与应对风险,让人工智能更好地服务于人类,更好地促进社会的发展。我们对强人工智能时代充满期待,也应做好相应的准备迎接其到来。

参考文献

[1]李连德.一本书读懂人工智能[M].北京:人民邮电出版社,2016:6.

[2]唐钧.人工智能的社会风险应对研究[J].教学与研究,2019(04):89-97.

[3]冯冬娜.人工智能社会风险及其规避路径[J].经济师,2019(04):8-9.

[4]闫坤如,马少卿.人工智能技术风险规避探析[J].长沙理工大学学报(社会科学版),2019,34(04).

[5]马长山.人工智能的社会风险及其法律规制[J].法律科学(西北政法大学学报),2018,36(06).

[6]吴汉东.人工智能时代的冷思考[J].中国报业,2018(03).

[7]杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(09).

上一篇:微型游戏项目在中职计算机编程教学中的应用下一篇:不同季节园林绿化养护对策