2023成都积分入学什么时候开始申请
2023-01-31
更新时间:2022-11-11 12:06:29作者:智慧百科
11月10日下午,世界互联网大会人工智能与数字伦理分论坛举行。在世界互联网大会密集的分论坛议程中,最多有12场分论坛同时举行,只有这场“独占”半天会期。
本次分论坛的主题是“人工智能的产业方向与伦理取向”,分三个话题:人工智能伦理的技术逻辑与人类的选择空间;数字伦理的法理与道理——现实世界与数字世界交融的秩序与规则;人工智能及其产业模式优化对未来人类社会生产生活形态的影响。
“本次论坛的目的是加深国内外学者、业界的对话,推动人工智能的伦理研究和治理体系的探索构建,促进安全可信可控的人工智能技术研发与应用场景,确保人工智能始终朝着以人为本、科技向善的方向发展。”中国网络空间安全协会秘书长李欲晓表示。
2017年, 在美国加州阿西洛马召开了“阿西洛马会议”,人工智能领域的专家学者关注人工智能快速发展的潜在问题,达成多项原则,提出目标是创造有益的人工智能。去年,我国发布《新一代人工智能伦理规范》,提出增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养6项基本伦理要求。
10日的论坛上,学者专家从不同的角度阐述对人工智能伦理的看法,澎湃新闻(www.thepaper.cn)梳理了部分内容。
清华大学人工智能研究院名誉院长、中国科学院院士张钹线上发表演讲。本文图片均来自 世界互联网大会官网
清华大学人工智能研究院名誉院长、中国科学院院士张钹:明晰伦理标准需要全球合作
“当机器不断进步和发展,有朝一日智力超过人类,特别是具有主观意识后,人类将失去对机器的控制,带来灾难性后果”——人工智能的风险早就被提出,霍金也曾发出警告,但我们一度认为是远虑。
到本世纪初,基于大数据的深度学习在人工智能中崛起的时候,人们的认识有了变化,感觉人工智能的伦理风险就在眼前,治理迫在眉睫。
根据目前人工智能的技术,我们可以通过深层次神经网络,根据使用者的要求生成符合要求、质量良好的文本和图像,同样的,也可以违背要求,生成充满种族、性别等偏见,不公正和错误百出的文本和图像,不受使用者控制。如果根据这些错误文本做决策、预测,可能带来严重后果。
想让机器向智能化发展,就不能让机器完全听人类摆布,需要赋予它一定的自由度和自主权——深层次神经网络就是根据这个原理:利用概率这个数据工具,使机器能生成丰富的文本和图像。但也因为这个原因,就一定存在生成不合格、有害文本和图像的概率。
人工智能的发展必然带来对伦理和传统规范的冲击。从根本来讲,人工智能的研究、开发都要以人为本,从公正公平的伦理原则出发。为此,我们需要努力去建立可解释的鲁棒(Robust的音译,意为“健壮”,此处指在异常和危险情况下系统生存的能力)人工智能理论,在此基础上才可能开发出安全、可信、可控、可靠和可扩展的人工智能技术。
人工智能的研究和治理需要全世界不同领域人员的合作。除了从事人工智能研发和使用的人员,还需要法律、道德、伦理等人士参与。需要明晰伦理道德的标准,这需要全球合作,共同制定符合全人类利益的标准。
之江实验室主任,中国人工智能产业联盟副理事长朱世强
之江实验室主任、中国人工智能产业联盟副理事长朱世强:构建技术图谱预防潜在危害,以道制魔
人工智能技术给生产生活带来便利,也带来负面的东西,引起对人工智能伦理等方面的思虑甚至是过度担忧。
现实的情况是,人工智能还是弱人工智能,在某些单项领域,如围棋、蛋白质测序上有高于人的个体能力,但综合智能还是很弱的。从技术角度说,智能相对比较容易得到,而要用机器复现智慧很难。
我的观点是,人工智能是人类智能在机器领域的延伸,真正的主动权仍掌握在人,现阶段最重要的仍是发展技术,但同时要预防因为技术自身及其滥用给人类带来伦理问题。
之江实验室梳理了AI伦理图谱,从三方面(研发主体、使用者、管理主体)分类。我们还在构建预防人工智能危害社会的技术图谱,试图用技术来阻止人工智能的滥用和恶意应用。我们的逻辑是,菜刀是切菜的,虽然菜刀多次被用来杀人,但它本身没有原罪,我们的逻辑是“以道制魔”,用技术手段把菜刀打造得锋利,但让它永远砍不到人身上。
香港特区政府数字经济发展委员会委员杨德斌发表视频演讲
香港特区政府数字经济发展委员会委员杨德斌:人类应该自我提升,避免逐渐“退化”
电脑的计算能力越来越强,能为人类做的事越来越多,许多之前靠人力做的工作,由于其重复性、危险性、成本问题而逐渐被机器替代,如智能制造方面的“黑灯工厂”,无人机代替人探测下水道,机器人代替保安巡逻等。
由大数据引发的机器学习近年在各行业百花齐放,机器人2016年击败了围棋九段李世石和排名世界第一的柯洁,近几年机器学习在无人驾驶、医疗诊断甚至写作、画画、作诗方面都取得相当进展。尽管如此,人工智能与人类智能还是相去甚远。
人工智能与人类智能可以比喻为龟兔赛跑,人类是兔,机器是龟。随着人类越来越依赖机器,机器能做的越来越多,情况将逐渐改变。当人类把事情交给机器时,我们会不会变懒甚至变蠢?之前我们会记着几个常联系的家人和朋友的电话,现在只要手机语音自动拨打,不用记了,久而久之,记性便会变差。
我比较担心的不是机器学习有一天超越人类,而是人类因过度依赖机器而变得不智慧。龟兔赛跑是寓言,它告诉我们,不能因自满而输给对手。我们可以教机器更智慧,而且可以适当约束机器,让它不危害人类,但人类更应该自我提升,避免逐渐退化。
2007年图灵奖获得者、世界顶尖科学家协会会员约瑟夫·斯发基斯发表视频演讲
2007年图灵奖获得者、世界顶尖科学家协会会员约瑟夫·斯发基斯:人工智能与伦理的选择和平衡
我首先想说,人工智能的进步使自动化系统正转为自治系统,这反映了从弱人工智能向通用人工智能转化的趋势。
正常的伦理就是要做出正确的决定。为了做出正确的决定,首先你应该有选择的意识。现在很多人被如何合理使用人工智能的不同意见所困惑,我认为社会必须创造条件,进行冷静、知情和合理的辩论,我们应该在严格执行风险预防原则和接受创新以提高效率或质量之间取得平衡。我们现在下载一个系统,都会面临选择风险与性能之间的窘境。
另一个重要困境是怎样为人和机器分工。创新和技术进步可能意味着技能的损失,很难想象机器可以超越人类的智慧,尽管如此,如果我们贪图懒惰和安逸,人类的智慧也可以被驯服和征服。如果我们被机器的复杂性击败,对人类来说是非常糟糕的。
全国人大宪法和法律委员会副主任委员江必新
全国人大宪法和法律委员会副主任委员江必新:人工智能伦理构建的“五个源于”和“六全”
为什么要构建人工智能伦理、数字伦理?可以简单归纳为“五个源于”:源于数字技术和人工智能的二重性,既带来利益又有风险;源于数字网络的无边界性、跨国性、专业性、非透明性;源于法律规范的局限性;源于道德伦理对人类的不可或缺性;源于网络安全发展对人类道德的依赖性。
我认为,这个伦理体系的基本规则是求善、求真、求美,这也是人类共识,根据不同的时期、主题、环境、领域形成具体规则——现在的人工智能初步阶段和未来可能的超强阶段,具体规则是变动的。
怎样使规则从理念变为现实,建立什么机制才能使它变为现实?我概括为“六全”:全理念、全主体、全链条、全要素、全周期、全工具。
中国美术学院院长高世名
中国美术学院院长高世名:人工智能可以写诗、画画但不具备做这些的冲动和激情,而人类有
人工智能对我们的意义不只是模拟、延伸人的思维,更重要的是AI技术发展对我们理解人的语言,思维以及智能本身有巨大的推进,有助于探索人类的思考、学习、分析、推理、规划和想象究竟是怎样的智力过程。
AI不只是研究和制造的工具,更是感知和思维的工具,它是人自我认知的镜子,也是人类社会意识的镜子。它甚至不只是工具,更是伙伴,AI是我们的一部分,是我们未来的一部分。
欲望与意愿或许是我们与人工智能的最大差异。人工智能可以写诗、画画、作曲,可以在棋盘上战胜人类,但它必须要接受指令才会写诗、下棋、作画、作曲,它不具备做这些行为的冲动、欲望和意愿,而人类不但有欲望,还有激情。
如何以算法去应对无数社会性个体间复杂的、充满非理性和偶然性的相互作用,这是AI技术的难点,心灵没有方程式,社会性的心灵更无法用算法解决。
对人工智能有很多的忧虑,其中一个是人工智能通过运算和模拟正在逐渐替代和置换我们的感受力,AI的无限算力也对人类的想象力产生了压力和推动力。我认为,人工智能的发展不是为取代人,它反过来迫使我们重新理解什么是创造,创造是最富意义的生产,创造还涉及好奇、冲动、感性、关怀、欲望、价值、目的,最重要的是对于未知、无名的爱——只要我们还葆有这些,就可以大胆宣布那些可以被人工智能取代的都随它去吧。