最近几天,清华大学社会科学学院社会学系,中国科学院学部—清华大学科学与社会协同发展研究中心主办了伦理立场,算法设计与企业社会责任研讨会在研讨会上,中科院自然科学史研究所副研究员王彦雨表示,无论是外界干扰还是自我演化,只要人工智能可以形成区别于初始目标的新目标,并根据新目标自主行动,就可以看作是强人工智能形式但机器所形成的新目标并不是基于意向性,而是基于目标变化而产生了与原始目标不同的新东西,成为相对于原始智能机器的异化体基于意向性的人工智能,至少到现在还没有任何可行性
中科院自然科学史研究所副研究员王彦雨。主办方供图
强人工智能概念在1980年提出,相对于弱人工智能,强人工智能概念有以下共同特征:一是达到或者是超越人类智慧,二是具有意向性,拥有自我目标设定与自我评价及认知能力,三是强AI必须有通用性,拥有完整的人类能力谱系。此外,论坛设置了以“AI精准赋能,助力‘双碳’战略”和“构建可信AI新未来”为主题的圆桌对话会。专家学者和企业家探讨了在智能经济背景下,如何利用AI技术降本增效,转型升级,早日实现二氧化碳排放峰值和碳中和的目标,用可信的AI创造更美好的工作生活图景。
王彦雨分享了人工智能研究共同体和哲学科学社会界对于强AI的看法和态度转换过程20世纪50年代中期至70年代初期,是人工智能的第一个黄金期,伴随着人工智能技术的进步,这一时期的人工智能界对于强AI非常乐观,当时的许多人工智能科学家认为10年,20年以后的机器就可以做人类能够完成的任何事情但这一时期,哲学社会科学界共同体是以强AI的反对者身份出现的,他们基于人脑功能的特殊性,对当时的强AI乐观思潮进行了批判
在20世纪70年代中期至80年代末,人工智能研究进入寒冬期,强AI概念逐渐衰落1966年美国自动语言处理咨询委员会发布ALPAC 报告,以及1973年英国的Lighthill Report,均指出当时的人工智能技术难以解决诸如语义消歧,智能爆炸,不具备学习能力等问题在他们看来,当时的人工智能并不智能,更多的是依赖一系列已经给出的固定程序来执行命令,没有学习能力在这一时期,一种新的理念智能增强——强调人工智能研究目的是为了简化人机交互,而不是为了制造超越人类智慧的终极机器,开始吸引到越来越多的科学家
从20世纪90年代初至90年代末,人工智能界基本不再提及强AI概念,怕被贴上白日梦标签不过,那时候开始出现了奇点议题,如机器人专家莫拉维克,弗诺·文奇等通过写作科幻小说,来宣扬未来可能会出现超级智能机器,它的兴起为21世纪初的哲学社会科学界的强AI思潮提供思想基础进入21世纪,基于摩尔定律的印证,哲学社会科学界开始复兴奇点议题,从2010年到现在,伴随着深度学习理念的提出,强AI的论调开始盛行
那强AI到底强在哪里呢他介绍,它拥有以深度学习为代表的学习模式,更类似于人,这种类似包括结构和学习过程等而且,数据存储,搜索能力也比较强,拥有一个强大的泛化能力与进化能力此外,当前基于深度学习技术的人工智能产品,具有更快的进化速度,以围棋AI为例,Crazy Stone的进化单位是按年计算的,阿尔法狗是以月为单位进行功能提升的,而最新的AlphaGo Zero则呈现出以天/小时为单位的功能提升模式,这种进化效率令人担忧此外,人们的担忧还包括AI的自主性,包括决策自主性与行动自主性,且纯自主的机器人已经出现
但这并不意味着人工智能能超越人类,因为人类的思维具有其独特品质王彦雨说:人的思维由主动的意识起,是基于已有的背景知识,需求甚至责任等等方面而形成的自主目标,这个目标是主动提出的,而阿尔法狗等智能机器的目标则是先赋的,由人设定的,这与人类有着根本区别此外,人脑思维具有更高阶的思维模式,比如智慧,直觉,灵感,这是人工智能没有的
我们还提出强人工智能2.0概念,无论是外界的干扰,还是自己的演化,只要人工智能可以形成新目标,根据这个目标自主行动,就可以看作是强AI形式新目标不是基于意向性,而是基于目标的变化,产生了一些与原始目标不同的新东西,就可以称为强AI他说
弱AI与强AI是两个不同的机制,强AI在外部的入侵与干扰,内部的演化下可以做到原始目标的偏离,这在科学上可以实现,更具有可行性,如俄罗斯机器人Promobot IR77在没有预先训练的情况下独自走出实验室寻找充电桩,一些机器人可将所习得的常识自主运用到新场中等但基于意向性的人工智能,至少到现在还没有任何可行性
王彦雨指出,在未来社会,除了作为工具的人工智能带来的风险,还有可能出现更多具有强AI2.0特质的智能体所带来的风险,这需要引起关注,另外,从哲学角度来讲,未来可能会出现人工智能机器自己生产知识的形式,伴随着这种知识体量的增大,会对人际关系等带来新的社会影响。。
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。