ChatGPT 震撼了公众对人工智能 (AI) 的认识、感知和期望。在这篇改编自他在 2023 年 5 月 24 日发表的 Watson 讲座的问答中,计算机科学家 Yaser Abu-Mostafa 解释了人工智能的历史并探讨了其风险和好处。
在“人工智能将杀死我们所有人”或吹嘘“人工智能将解决我们所有问题”的警告中,仔细研究该技术背后的科学可以帮助我们确定什么是现实的,什么是投机性的,并帮助指导规划、立法和投资。
讲座的要点如下。
为了清晰和长度,以下问题和答案已经过编辑。
人工智能是如何发展成为我们今天所知道的技术的?
我们今天看到的人工智能 (AI) 是该领域从简单的蛮力方法到复杂的、基于学习的模型(密切模仿人脑功能)的旅程的产物。早期的人工智能对于下棋或 危险等特定任务很有效,但它受到预先编程每个可能场景的必要性的限制。这些系统虽然具有开创性,但凸显了人工智能在灵活性和适应性方面的局限性。
变革性的转变发生在 1980 年代,从蛮力转向学习方法。这种转变的灵感来自对人脑学习过程的更深入理解。这个时代迎来了神经网络的发展:能够从非结构化数据中学习的系统,而无需针对每个场景进行显式编程。
人工智能的历史发展反映了人类智能和学习本质的不断努力。这种演变凸显了该领域的最初目标:创造能够学习、适应和潜在思考的机器,其自主程度曾经是科幻小说的领域。
人工智能中的判别模型和生成模型有什么区别,每种类型是如何使用的?
区别在于他们理解和生成数据的方法。判别模型旨在对不同类型的数据输入进行分类或区分。判别模型的一个常见应用是在面部识别系统中,其中模型通过从标记人脸数据集中学习来识别特定人脸属于谁。此功能应用于安全系统、个性化用户体验和验证流程。
另一方面,生成模型旨在生成类似于训练数据的新数据。这些模型学习数据集的潜在分布,并可以生成具有相似特征的新数据点。生成模型的一个显着应用是在内容创建中,它们可以生成逼真的图像、文本甚至数据来训练其他 AI 模型。生成模型可以为制药等领域做出贡献,它们可以帮助发现新的分子结构。
你担心人工智能系统会流氓吗?
流氓人工智能系统的感知威胁是一个争论不休的话题,它是由推测性的小说和理论场景推动的,而不是基于人工智能技术的当前能力和设计。人们的担忧围绕着人工智能系统以创建者无意或预测的方式自主行动的可能性,这可能会对个人、社会或整个人类造成伤害。然而,要了解这种威胁的本质,需要对人工智能目前是什么以及它可能变成什么进行细致入微的考虑。
人工智能,正如它今天所存在的那样,在它设计的特定任务的范围内运行,缺乏意识、欲望或意图。人工智能没有意图——没有好的意图,也没有坏的意图。它学习你教它的东西,时期。
人工智能系统,包括最先进的神经网络,是由人类创建、控制和维护的工具。人工智能“流氓”和违背人类利益的概念忽视了开发和训练人工智能系统所涉及的实际和后勤限制。这些活动需要大量的人工监督、资源和基础设施,从收集和预处理数据到设计和调整算法。人工智能系统无法独立访问、操作或控制这些资源。
在我看来,人类对人工智能的潜在滥用提出了一个更直接和实际的问题。以不道德、不受监管或旨在欺骗或伤害的方式开发和部署人工智能,例如在自主武器、监视或传播错误信息方面,代表着真正的挑战。
这些问题凸显了合乎道德的人工智能开发、健全的监管框架和国际合作的重要性,以确保人工智能技术用于造福人类。
为什么规范人工智能的部署和发展具有挑战性?对于有效监管以防止滥用,您有什么建议?
一个重大障碍是人工智能技术的发展速度,超过了监管框架和政策制定者的理解。
人工智能的各种应用,从医疗保健到自动驾驶汽车,每个应用都带来了自己的一套道德、安全和隐私问题,使创建一刀切的监管方法变得复杂。
此外,人工智能发展的全球性,以及全球学术界、工业界和开源社区的贡献,需要在监管工作方面开展国际合作,使这一过程进一步复杂化。
一个有效的人工智能监管框架必须在防止滥用和支持创新之间取得微妙的平衡。它应该解决人工智能的伦理和社会影响,例如偏见、问责制和对就业的影响,同时营造一个鼓励技术进步和经济增长的环境。
在立法方面,我有一个建议,至少可以阻止未来几年与人工智能相关的犯罪的爆炸式增长,直到我们弄清楚针对这些犯罪的量身定制的立法是可能的。我的建议是将人工智能用于犯罪定为加重处罚的情节。携带枪支本身可能不是犯罪。但是,如果您进行抢劫,无论您是否携带枪支,都会有很大区别。这是一个加重处罚的情节,使惩罚显着增加,这是合乎逻辑的,因为现在存在更大的生存威胁。通过将人工智能在犯罪活动中的使用归类为加重处罚的因素,法律体系可以对那些出于恶意目的利用人工智能的人施加更严厉的惩罚。
为什么国际社会积极开展人工智能研究和创新至关重要?
人工智能的未来不应由少数实体决定,而应通过全球合作努力发展。正如像LIGO项目这样的科学努力将人们聚集在一起,以实现曾经被认为不可能实现的目标(探测引力波),人工智能研究也需要类似的集体努力。我们正处于发现的边缘,这些发现可以重新定义我们对智力、生物学等的理解。我们必须共同追求这些愿景,确保人工智能的好处得到广泛和合乎道德的分享。
暂停或停止开发工作可能会无意中使那些有恶意的人受益。如果负责任的研究人员和开发人员停止他们在人工智能方面的工作,这并不等同于人工智能进步的普遍停止。如果你暂停人工智能的发展,好人会遵守它,坏人不会。因此,我们所实现的只是给坏人一个“先机”,以推进他们自己的议程,这可能导致开发和部署不道德、有偏见或旨在伤害的人工智能系统。那些致力于道德标准、透明度和公共利益的人开发人工智能技术可以平衡潜在的滥用。
人工智能在未来有什么潜力,特别是在增强人类能力而不是取代人类能力方面?
人工智能在自动化日常和重复性任务方面的作用使人类能够专注于更具创造性和战略性的活动,从而提升工作的性质并为创新开辟新的途径。通过消除平凡的任务,人工智能使个人能够更深入地参与到需要人类洞察力、同理心和创造力的工作方面。
这种转变不仅有可能提高工作满意度,而且有可能以新的想法和方法推动行业和部门向前发展。人工智能的前景不在于取代人类的能力,而在于显着增强它们,开辟一个人类和机器合作解决当今世界面临的一些最紧迫挑战的未来。
您可以向加州理工学院科学交流中心提交自己的问题。
新闻旨在传播有益信息, 英文版原文来自https://scienceexchange.caltech.edu/topics/artificial-intelligence-research/artificial-intelligence-experts/yaser-abu-mostafa-artificial-intelligence?utm_source=caltechnews&utm_medium=web&utm_campaign=cseai