云快卖,提供专业好用的外卖系统、跑腿系统和同城信息系统,公众号+小程序+APP多端适用。
人工智能的发展前景和可能后果:可能导致国际和社会后果
2023-04-26 18:05:45 云快卖

编译:隆昌

【导读】本文节选自日本国际事务委员会网站2018年11月发表的题为《人工智能的发展前景和可能后果》的文章,文章主要介绍了现今世界人工智能技术的发展现况、未来趋势以及可能造成的国际和社会后果。文章觉得,当前,人工智能还处于“弱人工智能”发展阶段,但早已对个人、社会和国家安全构成足够的潜在恐吓。当前人工智能技术发展面临的最大问题包括“人工智能民族主义”和“人工智能国家化”。同时,人工智能技术和第四次工业革命将对社会职业发展、法律伦理形成无法预测的巨大影响。

人工智能发展的主要问题和潜在恐吓

虽然明天的神经生物学取得了好多成就,但到目前为止,还没人确切地晓得,自然的智能是怎样产生的。因而也就没人确切地晓得到底怎么研发人工智能。目前要研发出人工智能还存在系列亟需解决的问题,关于解决问题的优先方向也存在不同的观点。例如,开放式代码和人工智能国际研发项目负责人本·戈策尔(Ben)觉得,研究通用人工智能所必须的所有技术原则上都早已研发成功,只不过须要通过正确的方法进行连结以形成增效作用,最终都会出现通用人工智能。其余专家则更倾向于持怀疑的心态。她们觉得,必须解决许多下边正式列举的原则性问题。专家对强人工智能出现时间的评估也相距甚远:从六年到几六年不等。

无论是普通的自主或则自适应智能系统,还是通用或强人工智能系统的出现,就会形成不同程度的恐吓,这种恐吓虽然在当下也早已十分现实。其中包括:

研发所谓的致命自主装备系统(,LAWS),例如雇用杀人用的无人机;

新一轮军备大赛,各国将建立自主毁伤兵器的智能水平;

不一定是作战使用的智能系统,可以是工业或则生活智能系统,除了才能进行有目的的行动,能够进行有意识的目标定向,在此情况下,系统自主制订目标可能造成目标与人的目标相违逆;

程度更高的手动化将大多数人排除出物质生产环节,这可能造成更大的社会阶级差别,增加“社会阶梯”的效率,降低“多余人口”的数目并引起相应的社会后果。

2018年8月,在坐落萨尔茨堡的德国技术学院同时举办了主题分别为人类水平人工智能、通用人工智能、生物激励认知结构和神经-符号技术的代表会议。会议上,来自人工智能研究领域前沿公司和组织(,,DARPA,MIT,)的主要专家发表了报告。这种报告罗列了人工智能领域研究的现况,强调了社会所面临的问题以及在该项技术下一步研究中可能出现的恐吓。在本段概述中,作者将尽量简略说明主要的问题和恐吓,并强调应对这种恐吓可能的途径。

首先必须明晰与人工智能相关的一些术语:弱人工智能或则专业人工智能,自主人工智能(AI),自适应人工智能(AI),通用人工智能(,AGI),强人工智能(AI),人类水平人工智能(Human-LevelAI)人工智能,超人类水平人工智能(Super-humanAI)。

人工智能或则专业人工智能毫无疑惑就是指目前的技术方案,才能手动完成某一具体任务,例如象棋或则摄像头的人脸辨识功能。这些人工智能不能独立学习其它任务,除非人类对其进行重新编程。

自主人工智能是指系统才能长时间在没有操作员参与的情况下运行。例如,它还能让配备太阳能电板的无人机从香榭丽舍大街飞到红场或则沿相反的路线飞行,独立选择路线、充电经停地点,同时规避可能的障碍。

自适应人工智能要求系统具备适应新环境的能力,才能获取研发过程中没有预置的知识。例如,才能让英语对话支持系统独立把握新的语言,适应新的语言环境或则在学习语言教学资料的基础上,在对话中运用这种知识。

联通智能客服 转人工_人工智能_智能人工黑箱法则

通用人工智能同样要求具备高水平的适应性,具备通用人工智能技术的系统在经过相应学习后,才能在各类迥然不同的活动中使用。学习过程可以是独立的,也可以是有针对性的(在指导员的帮助下)。目前也常常使用强人工智能来与弱人工智能和专业人工智能进行对比。

人类水平人工智能要求系统的适应性水平才能与人类的适应性水平相当,也就是说系统才能在与人类学习相当的时限内把握同样的技能。

超人类水平人工智能要求具备更高水平的适应性和学习速率。因而,系统就能学习人类基本无法胜任的知识和能力。

人工智能研发中的原则性问题

在总体进化框架下,强人工智能的出现完全是符合规律的,如同原子组成分子,分子组成细胞,细胞组成机体,专门的细胞构成中央神经系统,如同社会组织的出现,语言、文字的发展,最终出现了信息技术一样是有规律的。在进化过程中,信息结构和组织方式不断复杂化的规律早已被瓦连京·图尔钦挺好地证明。假如人类文明没有战败,这么这些进化将是不可防止的,在好久之后的未来,这将挽救人类,由于只有信息的非生物存在款式才能躲过太阳系的战败,将我们的文明信息密码保存在宇宙当中。

与此同时,必需要承认的是,要研发出强人工智能,并不一定要晓得自然的人工智能是怎样运行的,如同制造潜艇不一定要晓得动物怎么飞行一样。似乎,这迟早会通过这样或则那样的方式实现,其实,还能通过几种方式来实现。

大部份专家觉得,要研发出通用或则强人工智能,还要解决以下几个原则性问题:

快速学习(few-shot)——必须让系统学习的资料规模变小,而不是像现今的深度学习系统那样,须要大量的专门打算的学习资料。

强悍的概括能力()——研制情境辨识技术,被辨识目标出现在与学习资料完全不同的环境当中。

学习生成模型()——研制一种学习技术,当记忆对象并非辨识对象的特点,而是其构成原则时,这才能反映辨识目标更加深层次的实质,才能让学习显得更快,具备更强的概括归纳能力。

结构化预测和学习(and)——在将学习对象诠释为多层、多级结构的基础上,开发学习技术,在这些结构中,低层级要素决定更高层级要素,这也可能成为解决快速学习和强概括能力的一种方式。

解决灾难性遗忘()问题——这个问题在现有系统当中普遍存在,原本学习了一类目标,之后学习辨识新一类目标时,丧失辨识第一类目标的能力。

具备增量学习()能力——让系统才能积累知识并逐步建立自身能力,与此同时不失去原先所获得的知识,且自然语言对话交流系统获得新的知识。理想状态是通过“婴儿图灵测试”(BabyTest),系统应该逐步具备从小孩至成人的语言水平。

解决意识问题()——建立可靠的意识行为工作模型,通过构建“内部世界图景”保证进行有效的预测和有针对性的行为,在这一图景框架下,才能在不与现实世界实际交互的情况下,找寻达成既定目标的最佳行动战略,这大大增强了安全性,检验假说的能力,提高了检验的速率和效能,因而也促使有生或则智能系统在自我意识的“虚拟世界”中具备了自我学习的能力。从应用的观点看,意识问题存在两个方面。一方面,研发具备意识的人工智能系统还能大大提升其效能。另一方面,研发这样的系统会造成额外的风险,包括伦理层面的问题,由于这种系统在某一阶段将具备与人类相当的自我意识水平,并因而可能引起法律方面的后果。

人工智能_联通智能客服 转人工_智能人工黑箱法则

人工智能的潜在恐吓

无论是自主或则自适应系统,还是通用或则强人工智能系统的出现,都伴随着不同程度恐吓的形成,这种恐吓在当前也早已迫在眉睫。

第一,对人类构成恐吓的不一定是强人工智能、通用人工智能、人类水平人工智能或则超人类水平人工智能,由于具备大量信息,速率极快的自主系统就早已极具恐吓。在自主系统的基础上可研发所谓的致命自主装备系统,最简单的反例就是3D复印机批量生产以及人工小批量制做的雇用型杀人用无人机。

第二,对于国家的恐吓是,另一个国家(潜在敌方)获得了自主性、自适应性更强,具备通用人工智能技术的装备,其反应速率更快,能力更强。

第三,对于全世界的恐吓是由上一个恐吓衍生而至的,各个国家深陷军备大赛,旨在于改进自主杀伤和捣毁兵器的智能水平,斯坦尼斯拉夫·莱姆几六年前就曾这么预言。

第四,对于各方来说恐吓可能是任何智能系统,不一定是作战智能系统,也可以是具备一定自主性和自适应性的工业或日常智能系统,除了才能进行有针对性的行动,能够有意识地进行目标定向,并且系统自主设置的目标可能与人类的目标相违逆,而系统达成目标的能力要强得多,由于其运行速率更快,处理信息能力、预测能力更强。遗憾的是,这一恐吓的程度还没有得到应有的注重和研究。

第五,对于社会的恐吓是,资本主义(专制主义)社会中的生产关系步入新的发展阶段,越来越少的人具备控制物质生产的能力,通过越来越中级的手动化,大部份人被排除出物质生产,这可能造成愈发严重的社会差别,增加“社会阶梯”的效能,降低“多余人口”的数目,致使相应的社会后果。

最后,对于整个人类的恐吓是,基于全球网路的全球数据处理、信息传播和决策估算系统的自主化,由于这种系统的信息传播速率和影响能力可能造成现有经验和管理模式所想像不到的社会现象。例如,现今中国所采取的社会按揭体系就是一种独一无二的文明实验,它所造成的后果昨天还不得而知。

目前对人工智能系统的监控十分困难,诱因之一就包括现有基于“深度神经网路”应用方案的“封闭性”,致使无法在决策执行前对决策的正确性进行查证,甚至都不能对及其决策进行事实剖析。可解释人工智能(,EAI)这一新的方向目前被拿来解决这一困局,将关联(神经网路)和符号(基于逻辑)方式结合上去解决这一问题也出现了新的进展。

应对恐吓的方式

毫无疑惑,必须采取以下举措避免人工智能技术发展及其应用可能造成的灾难性后果。

国际社会对致命自主装备系统给以查处并研究、采取执行监督举措。

国家支持致力解决上述问题的工作,非常是可解释人工智能,技巧融合,研究目标定向机制构建的原则以获得有效的编程和智能系统监控工具,程序设计的工具不是规则,而是价值观,监控的对象不是行为,而是目标。

获得人工智能技术和技巧的民主化,例如人工智能,借助对智能系统应用于大众估算、认知技术学习所得收入的再投资,以及研究具有开放式密码的人工智能方案,拟定举措鼓励现有“封闭式”人工智能系统开放密码。例如,项目致力为普通用户研发自主工作,不受集中控制的个人人工智能助手。

在国际层面规定人工智能算法、分布式数据处理系统和决策系统工作合同的开放性,使国际和国家组织以及私人具有独立审计的能力。密码开放人工智能平台和生态系统的创建就是在该方向的创造性探求之一。

免责声明:部分文章信息来源于网络以及网友投稿,本站只负责对文章进行整理、排版、编辑,出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性,如本站文章和转稿涉及版权等问题,请作者在及时联系本站,我们会尽快为您处理。

云快卖

留言咨询

×