什么是AI?

2023-12-04

为了更好的了解什么是AI?我们先来研究了人工智能的四个潜在目标或定义,这些目标或定义根据理性和思考与行动来区分计算机系统:

人类的方法:

  • 像人类一样思考的系统

  • 像人类一样行动的系统

理想的方法:

  • 理性思考的系统

  • 理性行动的系统

艾伦·图灵的定义属于“像人类一样行事的系统”范畴。

从最简单的形式来看,人工智能是一个结合计算机科学和强大数据集来解决问题的领域。它还包含机器学习和深度学习的子领域,这些领域经常与人工智能一起提及。这些学科由人工智能算法组成,旨在创建专家系统,根据输入数据进行预测或分类。

多年来,人工智能经历了多次炒作周期,但即使是怀疑论者,也会认为,OpenAI 的 ChatGPT 的发布似乎标志着一个转折点。上一次生成式人工智能让人如此忧心忡忡的时候,还是因为在计算机视觉方面取得突破,但现在的飞跃则是在自然语言处理方面。而且,不仅仅是语言:生成模型还可以学习软件代码、分子、自然图像和各种其他数据类型的语法。

这项技术的应用每天都在增长,而我们才刚刚开始探索可能性。

人工智能的类型 - 弱人工智能与强人工智能

弱人工智能(也称为狭义人工智能 (ANI))是经过训练并专注于执行特定任务的人工智能。当前,我们周围的大部分人工智能都属于弱人工智能。“狭义”可能是对此类人工智能更准确的描述,因为弱人工智能一点也不弱。它支持一些非常健壮的应用程序,例如,苹果的 Siri、亚马逊的 Alexa、IBM watson 和自动驾驶汽车。

强人工智能由通用人工智能 (AGI) 和超人工智能 (ASI) 组成。通用人工智能 (AGI) 或通用 AI 是人工智能的一种理论形式,其中,机器将具有与人类相同的智能;它会有自我意识,有能力解决问题、学习和规划未来。超人工智能 (ASI),也称为超智能,将超越人脑的智力和能力。虽然强人工智能仍然完全是理论性的,目前还没有强人工智能实际使用的例子,但这并不意味着人工智能研究人员没有在探索它的发展。与此同时,ASI 最好的例子可能来自科幻小说,例如《2001:太空漫游》中的超人、流氓计算机助手 HAL。

深度学习与机器学习的对比

由于深度学习和机器学习往往可以互换使用,因此,两者之间的细微差别值得注意。如上所述,深度学习和机器学习都是人工智能的子领域,深度学习实际上是机器学习的子领域。

深度学习和机器学习的不同之处在于每种算法的学习方式。深度学习将过程中的大部分特征提取部分自动化,消除了一些以前必需的人为干预,并允许使用更大的数据集。可以将深度学习视为“可扩展的机器学习”,正如 Lex Fridman 在上述的麻省理工学院讲座中指出的那样。经典的或“非深度”的机器学习更依赖于人为干预来学习。由人类专家确定特征的层次结构以了解数据输入之间的差异,通常需要结构化更强的数据来学习。

“深度”机器学习可以利用标记数据集(也称为监督学习)来通知其算法,但它不一定需要标记数据集。它可以采叙述原始形式的非结构化数据(例如,文本、图像),并且可以自动确定区分不同类别数据的特征层次结构。与机器学习不同,它不需要人为干预来处理数据,这要,我们就能够以更有趣的方式扩展机器学习。

生成模型的兴起

生成式人工智能是指深度学习模型,它可以获取原始数据(例如,所有维基百科或伦勃朗的作品集),并在出现提示时“学习”生成统计上可能的输出。在较高的层次上,生成模型对所用的训练数据的简化表示进行编码,并从中提取内容来创建类似的新作品,但与原始数据不同。

多年来,统计学中一直使用生成模型来分析数值数据。然而,随着深度学习的兴起,现在可将它们扩展到图像、语音和其他复杂数据类型。实现这一跨界壮举的一流模型是 2013 年推出的变分自动编码器 (VAE)。VAE 是第一个广泛用于生成逼真图像和语音的深度学习模型。

“使用 VAE,更容易扩展模型,从而打开了深度生成建模的闸门

,”MIT-IBM Watson AI 实验室的生成式人工智能专家Akash Srivastava 说道

“我们今天所认为的生成式人工智能大部分都是从这里开始的。”

这些模型的早期示例已经展示了可能性,例如,GPT-3、BERT 或 DALL-E 2。未来的模型是使用大量未标记数据进行训练,这些数据可用于不同的任务,并且只需进行最少的微调。在单一领域执行特定任务的系统正在让位于广泛的人工智能,后者可以更广泛地学习并跨领域和跨问题工作。目前,基础模型是在大型、未标记的数据集上进行训练,并针对一系列应用程序进行微调,这些模型正在推动这一转变。

对于生成式人工智能,预计基础模型将显著加快人工智能在企业中的应用。减少标签要求可带来很多好处,
企业更容易投入使用,而且,高度准确、高效的人工智能驱动的自动化意味着,更多的公司将能够在更广泛的关键任务情况下部署人工智能,每个企业最终都能在无摩擦的环境中受益于基础模型的强大功能。

人工智能应用

如今,人工智能系统有许多实际应用。以下是一些最常见的用例:

  • 语音识别: 也称为自动语音识别 (ASR)、计算机语音识别或语音转文字,是一种使用自然语言处理 (NLP) 将人类语音处理为书面格式的功能。许多移动设备将语音识别集成到其系统中以进行语音搜索,例如Siri,或者在短信方面提供更多辅助功能选项。

  • 客户服务:在线虚拟代理正在取代客户获得服务过程中的真人代理。它们可以回答有关运输等主题的常见问题 (FAQ),或者提供个性化建议、交叉销售产品或为用户建议规格等,从而改变了我们所设想的网站和社交媒体平台中的客户参与方式。示例包括:电子商务网站上带有虚拟代理的消息传递机器人;Slack 和 Facebook Messenger 等消息传递应用平台;以及通常由虚拟助手和语音助手完成的任务。

  • 计算机视觉: 使用这种人工智能技术,计算机和系统将能够从数字图像、视频和其他视觉输入中获取有意义的信息,并根据这些输入采取行动。这种提供建议的能力让它有别于图像识别任务。在卷积神经网络的支持下,计算机视觉可应用于社交媒体中的照片标记、医疗保健中的放射成像以及汽车行业中的自动驾驶汽车。

  • 推荐引擎: 利用过去的消费行为数据,人工智能算法可以帮助发现数据趋势,从而制定更有效的交叉销售策略。在线零售商可在结账过程中使用此引擎向客户进行相关的附件推荐。

  • 自动化股票交易:人工智能驱动的高频交易平台旨在优化股票投资组合,每天可进行数千甚至数百万笔交易,而无需人为干预。

人工智能的历史:关键年份和人物

“会思考的机器”的概念可以追溯到古希腊。但是,自从电子计算出现(并与本文讨论的一些主题相关)以来,人工智能发展中的重要事件和里程碑包括:

  • 1950 年:艾伦·图灵 (Alan Turing) 出版《计算机器与智能》(Computing Machinery and Intelligence)。在这篇论文中,因在二战期间破解纳粹 ENIGMA 密码而闻名的图灵试图回答“机器能思考吗?”的问题,并引入了图灵测试,以确定计算机能否表现出与人类相同的智能(或相同智能的结果)。从那时起,图灵测试的价值就一直存在争议。

  • 1956 年:约翰·麦卡锡 (John McCarthy) 在达特茅斯学院举行的第一届人工智能会议上首创“人工智能”一词。(麦卡锡后来发明了 Lisp 语言。)同年晚些时候,Allen Newell、JC Shaw 和 Herbert Simon 推出了 Logic Theorist,这是第一个运行的人工智能软件程序。

  • 1967 年:Frank Rosenblatt 构建了 Mark 1 感知机,这是第一台基于神经网络的计算机,可以通过反复试验来“学习”。仅仅一年后,Marvin Minsky 和 Seymour Papert 就出版了一本名为 《感知器》 (Perceptrons) 的书,该书成为神经网络的里程碑式著作,至少在一段时间内成为反对未来神经网络研究项目的论据。

  • 20 世纪 80 年代:使用反向传播算法进行自身训练的神经网络在人工智能应用中得到广泛应用。

  • 1997 年:IBM 的“深蓝”在一场国际象棋比赛(以及复赛)中击败了当时的世界象棋冠军 Garry Kasparov。

  • 2011 年:IBM Watson 在 Jeopardy! 比赛中击败冠军 Ken Jennings 和 Brad Rutter!

  • 2015 年:百度的 Minwa 超级计算机使用一种称为卷积神经网络的特殊深度神经网络来识别和分类图像,准确率超越普通人。

  • 2016 年:DeepMind 的 AlphaGo 程序由深度神经网络驱动,在五场比赛中击败了围棋世界冠军 Lee Sodol。由于棋局中可能出现大量棋步(四手之后就有超过 14.5 万亿个可能棋步!),因此,这场胜利意义重大。后来,据报道,谷歌以 4 亿美元的价格收购了 DeepMind。

  • 2023 年:大型语言模型或 LLM(例如 ChatGPT)的兴起,
    为人工智能的性能和发掘企业价值的潜力带来了巨大变化,通过这些新的生成式人工智能实践,可以使用大量原始、未标记的数据对深度学习模型进行预训练。