人工智能已经成为我们日常生活的一部分。每天都有新的人工智能产品发布。几乎每家公司要么计划整合人工智能,要么正在积极使用人工智能,要么正在将其旧的基于规则的引擎重新命名为人工智能技术。
我很想更多地了解这个不断发展的人工智能世界,我首先解码它的流行语并与您分享我的发现!
瓦利德.io ©
2024 年 20 大人工智能流行语
1 — 人工智能 (AI):
计算机科学的一个广泛领域,专注于创建可以执行通常需要人类智能的任务的系统,包括解决问题、决策和语言理解。
该术语最初由斯坦福大学荣誉教授约翰·麦卡锡创造,是机器学习、深度学习等各种方法和方法的总称。
2 — 机器学习 (ML):
机器学习是人工智能 (AI) 的一个子集,专注于算法和统计模型的开发,使计算机系统能够通过经验提高特定任务的性能,而无需明确编程。
此过程通常涉及分析数据集以检测模式并构建您可以构建、托管和查询的模型和算法。
机器学习的最终目标是使机器学习系统能够在没有人工干预或帮助的情况下独立学习和做出决策。
3 — 监督机器学习。
监督学习使用标记数据来训练算法/模型以准确预测未知数据。它涉及输入与输出标签相关的数据,然后根据该数据训练算法以识别其中的复杂模式。
监督机器学习 — walid.io ©
示例:图像识别是一个经过训练可以区分猫和狗图像的系统。训练过程涉及为算法提供大量标记图像数据集,其中每个图像都被标记为“猫”或“狗”。该算法学习识别每个类别特有的模式和特征,例如耳朵的形状、动物的大小或皮毛的纹理。经过充分的训练,系统可以通过分析视觉特征并将其与学习的模式进行比较,准确地将新的、未标记的图像分类为猫或狗。
4 — 无监督机器学习。
无监督学习专注于寻找数据中的模式和结构,而不依赖于标记数据。这是一种从大型数据集中发现隐藏联系和有价值见解的方法。
无监督机器学习 —walid.io ©
示例:音乐推荐系统将歌曲组织成不同的流派,无需事先标记。该系统分析每首歌曲的特征,例如节拍、节奏和旋律,并将相似的歌曲分组在一起。这个过程称为聚类,允许系统发现数据中的模式和关系,使其能够向对该流派表现出偏好的用户推荐特定流派的歌曲,即使这些歌曲在搜索过程中从未明确地按流派标记。训练阶段。
5 — 强化机器学习。
强化学习使用决策算法从与环境的重复交互中学习。这是一个专注于代理开发的领域,可以通过交互来采取行动来实现特定目标。但是等等,子领域的实际应用可以超出我刚才提到的范围;关注深度强化学习等概念。
强化学习 — walid.io ©
示例:训练一个国际象棋机器人,其中代理(AI 玩家)与环境(棋盘)进行交互。该动作是下棋,奖励系统的结构使得代理在吃掉对手的棋子时获得正奖励,在失去对手的棋子时获得负奖励。随着时间的推移,通过玩多种游戏并体验其走棋的结果,人工智能会学习并完善其策略,以最大限度地提高积极奖励,从而逐步提高其下棋技巧。
6 — 深度学习:
深度学习是机器学习的一个子集,专注于神经网络。这些是受人脑启发的计算模型,由具有相关权重的互连节点(神经元)组成。信息在这些网络中通过多层进行处理,因此称为“深度”。这种结构使模型能够学习数据中的复杂模式
深度神经网络 — walid.io ©
深度学习对于图像识别(识别照片中的对象)和自然语言处理(例如语言之间的翻译)等任务非常有效。
7 — CNN(卷积神经网络):
卷积神经网络是一种专门为处理网格状数据(例如图像和视频)而设计的神经网络。它们旨在识别图片中的图案和形状,非常适合识别物体或面部等任务。
卷积神经网络——来源
以下是它们的工作原理(简化版):
- 卷积:将其视为照在图像上的手电筒。美国有线电视新闻网(CNN)将手电筒移动到整个画面,一次聚焦于一个小部分。分析每个小部分以查找模式(如边缘、纹理或颜色)。
- 池化:找到模式后,CNN 想要制作图像的更简单版本。它通过池化来实现这一点,这意味着选取较小的区域并用该区域中最重要的信息(例如最强的模式)来总结它们。
- ReLU(修正线性单元):此步骤有助于确定找到的模式是强还是弱。它保留强者,去除弱者,使模型更加高效和集中。
完成所有这些步骤后,CNN 就可以很好地了解图片中的内容,并可以判断它是猫、狗还是汽车等。
CNN 是使用过滤器和池化层的前馈神经网络
示例:用于图像识别任务,例如识别照片中的对象、面部识别以及用于检测路标的自动驾驶汽车。
8—RNN(循环神经网络):
循环神经网络 (RNN) 是一种神经网络,专为序列数据(如句子或时间序列)而设计。与常规神经网络不同,RNN 具有存储器,可以捕获迄今为止已计算的信息。这种记忆有助于网络理解数据的上下文和顺序。
循环神经网络— walid.io ©
与前馈神经网络 CNN 不同, RNN 将结果反馈到网络中。因此他们将其命名为循环神经网络。
示例:RNN 对于理解和生成语言很有用。它们用于自然语言处理 (NLP) 任务,例如编写预测文本(如发短信时看到的内容)、将语音转换为文本(如语音助手)以及实时翻译语言。
9 — MLP(多层感知器)
MLP 是一种深度前馈人工神经网络。它至少由三层组成:输入层、一个或多个隐藏层和输出层。一层中的每个神经元都与下一层中的所有神经元连接,使网络完全连接。 MLP 利用一种称为反向传播的技术进行训练,其中模型通过调整连接的权重来从所产生的错误中学习。
示例:MLP 广泛用于分类问题,其中输入数据被标记,输出是离散类标签。例如,在手写识别任务中,输入可以是手写数字图像的像素数据,输出可以是图像代表的数字(0 到 9)。 MLP 将学习识别与每个数字对应的像素数据中的模式,并准确地对图像进行分类。
10—GAN(生成对抗网络):
生成对抗网络(GAN)是一种机器学习框架,由两个神经网络组成:生成器和判别器。这两个网络在某种竞争中同时进行训练。生成器尝试创建看起来真实的数据,而鉴别器尝试区分真实数据和生成数据。随着时间的推移,生成器能够更好地生成真实的数据,而鉴别器也能够更好地辨别真假。
生成对抗网络 —walid.io ©
示例:用于从草图创建逼真的图像,生成逼真的人脸或物体,制作深度伪造视频(其中一个人的脸与另一个人的脸令人信服地交换),并在称为超分辨率的过程中增强图像的分辨率。
11—变形金刚:
Transformer 是一种深度学习架构,它极大地推进了自然语言处理 (NLP) 领域的发展。与以前按顺序处理输入数据的模型不同,变压器一次处理整个数据序列,从而允许并行化并更有效地处理远程依赖关系。这很大程度上是由于它们使用了注意力机制,使模型能够以不同的方式权衡输入数据不同部分的重要性,更多地关注给定任务的相关部分。
示例:Transformers 是最先进的 NLP 模型的基础架构,例如 BERT(来自 Transformers 的双向编码器表示)和 GPT(生成式预训练 Transformer)。这些模型通过有效捕捉语言的上下文和细微差别,在文本分类、翻译、摘要和问答等广泛的 NLP 任务中树立了新的基准。
12 – GPT(生成式预训练变压器):
GPT(生成式预训练变压器)是一种基于变压器的模型,擅长生成与人类书写非常相似的文本。它在大量文本数据上进行了预先训练,使其能够理解和生成具有显着连贯性和上下文相关性的语言。 GPT 模型因其执行各种自然语言理解和生成任务而无需特定于任务的训练数据的能力而闻名。
示例:OpenAI 开发的 GPT 4 因其生成与人类编写的文本没有区别的能力而受到关注。其应用范围从创建内容和在聊天机器人中进行对话,到更复杂的任务,例如编码和在各个行业提供复杂的基于文本的服务。
13—GenAI(生成人工智能):
GenAI(生成人工智能)包括可以自主创建内容(例如文本、图像、视频或音乐)的人工智能系统。这些系统利用生成对抗网络 (GAN) 或大型语言模型 (LLM) 等先进技术来生成新的原始输出,这些输出与人类创建的内容非常相似。 GenAI 因其创造潜力以及模仿各种风格和格式的能力而特别引人注目。
示例:GenAI 的应用包括生成与人类无法区分的对话响应的聊天机器人、创作音乐或编写故事的人工智能驱动平台以及创建逼真的视觉艺术作品或深度伪造视频的系统。这些系统越来越多地用于娱乐、媒体和客户服务,展示了生成式人工智能技术的多功能性和创造潜力。
14—NLP(自然语言处理):
NLP(自然语言处理)是人工智能的一个分支,处理计算机和人类(自然)语言之间的交互。它涉及使机器能够以一种既有意义又有用的方式理解、解释和生成人类语言。 NLP 将计算语言学与机器学习和深度学习模型相结合,处理和分析大量自然语言数据。
自然语言处理 — walid.io ©
示例:NLP 的应用非常广泛,包括可以与类人反应进行对话的聊天机器人、确定文本中表达的情绪或观点的情感分析系统,以及像 Google Translate 这样可以准确地将文本或语音转换为文本或语音的语言翻译服务。一种语言到另一种语言。
15 — LLM(大型语言模型):
LLM(大型语言模型)是指一种人工智能模型,它经过大量文本数据集的训练,可以理解和生成与人类书写非常相似的语言。这些模型利用深度学习技术来处理和生成文本,擅长把握语言的细微差别、上下文和复杂性。法学硕士以其出色的熟练程度执行各种语言相关任务的能力而闻名。
示例:法学硕士的著名实例包括 OpenAI 的 GPT-4 和 Google 的 BERT。这些模型可用于各种自然语言处理应用,从生成连贯且上下文相关的文本到增强文本摘要、情感分析和对话人工智能系统等任务中的语言理解。
16 — TTS(文本转语音):
文本转语音是一种大声朗读数字文本的辅助技术。这是人机交互领域的重大进步,使计算机、智能手机和其他数字设备能够将任何类型的文本转换为语音输出。这项技术涉及从书面文本合成类似人类的语音,可用于更适合或需要口头交流的广泛应用。
文本转语音 — walid.io ©
示例:文本转语音广泛应用于 Siri、Alexa 和 Google Assistant 等语音助手应用程序中。它还用于有声读物旁白(提供传统书籍阅读的替代方案)以及 GPS 导航系统。此外,TTS 技术在可访问性方面提供了显着的优势,通过提供文本的语音版本来帮助有阅读困难的个人。
17— RAG(检索和生成):
RAG,即检索增强生成,是 Meta AI 研究人员提出的一种方法,它将基于检索的模型和基于生成的模型结合起来,以解决知识密集型任务。检索组件从大型外部数据集中获取相关信息或文档,而生成组件使用此信息来创建连贯的、上下文适当的响应或摘要。
简化的检索和生成 (RAG) — walid.io ©
示例:RAG 用于复杂的聊天机器人和问答系统,使它们能够提供准确且上下文丰富的答案。这些系统首先从综合知识库或数据库中检索最相关的信息以响应查询。然后,他们使用生成模型来制作响应,该响应不仅可以回答查询,还可以顺利地集成检索到的信息,确保输出信息丰富且措辞自然。
18—XAI(可解释人工智能):
XAI(可解释的人工智能)是指经过明确设计,使其操作、决策和行为能够被人类用户理解的人工智能系统。 XAI 的重点是确保透明度和可解释性,让用户理解人工智能如何得出特定决策或结论。这种理解可以促进信任并促进人类和人工智能系统之间更有效的协作,特别是在决策背后的推理与决策本身同样重要的关键应用中。
简化的可解释人工智能 (XAI) — walid.io ©
举例:在医疗领域,XAI发挥着至关重要的作用。例如,用于诊断疾病或推荐治疗的人工智能系统在能够解释其推理时更有价值。医生和医疗保健专业人员可以审查和了解人工智能的诊断过程或治疗建议,确保人工智能的建议符合医疗标准和实践,并在做出关键决策之前提供额外的验证层。
19 — AGI(通用人工智能):
AGI(通用人工智能)是指能够以与人类智能没有区别的方式理解、学习和应用知识的人工智能水平。与擅长特定任务的专业人工智能不同,通用人工智能将有能力执行人类可以执行的任何智力任务,包括推理、解决问题和跨广泛领域的创造力,同时理解上下文和微妙之处。
截至目前,AGI仍然是一个理论概念和未来人工智能研究的目标。当前的人工智能系统还没有达到通用人工智能所需的广泛、适应性强和全面的认知能力,这使其更多地是人工智能未来的愿景,而不是当前的现实。
20 — ASI(人工智能超级智能):
ASI(人工超级智能)代表了人工智能的一种形式,它在创造力、一般智慧和解决问题等各个领域不仅匹配而且显着超越了人类智能。它体现了一种在各个方面都优于人类智能的人工智能,潜在地具有自主改进的能力,导致其能力呈指数级增长。
ASI 仍然是一个理论和推测的概念,远远超出了人工智能技术当前的能力。目前还没有 ASI 的例子,其潜在的实现是人工智能伦理、未来研究和技术预测领域争论和思考的主题。