学人工智能必知的英文单词
转自推特@Will 3.6-6.16 硅谷。
【1】Accelerator 加速器:一类为加速AI应用而设计的微处理器。
【2】Agents 代理: 可以独立并主动地执行某些任务的软件,无需人类干预,通常利用一套工具如计算器或网络浏览器。
【3】AGI (Artificial General Intelligence) AGI(人工通用智能): 尽管并未广泛达成一致,但微软的研究人员已将AGI定义为在任何智力任务上都能与人类匹敌的人工智能。
【4】Alignment 对齐: 确保AI系统的目标与人类价值观相符的任务。
【5】ASI (Artificial Super Intelligence) ASI(人工超级智能): 尽管存在争议,ASI通常被定义为超越人类思维能力的人工智能。
【6】Attention 注意力机制: 在神经网络的上下文中,注意力机制帮助模型在产生输出时专注于输入的相关部分。
【7】Back Propagation 反向传播: 在训练神经网络中常用的一种算法,指计算损失函数相对于网络权重的梯度的方法。
【8】Bias 偏见 AI模型对数据做出的假设。"偏见方差权衡"是需要达成的平衡,即模型对数据的假设和模型的预测在不同训练数据下的变化程度之间的平衡。归纳偏见是机器学习算法对数据底层分布的一组假设。
【9】Chain of Thought 思维链条: 在AI中,这个术语通常用来描述AI模型用来做出决策的一系列推理步骤。
【10】Chatbot 聊天机器人: 一种通过文本或语音交互模拟人类对话的计算机程序。聊天机器人通常使用自然语言处理技术来理解用户输入并提供相关的回应。
【11】ChatGPT :OpenAI开发的一种大规模的AI语言模型,可以生成类人的文本。
【12】CLIP (Contrastive Language–Image Pretraining) CLIP(对比语言-图像预训练): OpenAI开发的一种AI模型,可以连接图像和文本,使其能够理解和生成图像的描述。
【13】Compute 计算 在训练或运行AI模型中使用的计算资源(如CPU或GPU时间)。
【14】Convolutional Neural Network (CNN) 卷积神经网络(CNN) 一种深度学习模型,通过应用一系列过滤器来处理具有网格状拓扑结构的数据(例如,图像)。这样的模型通常用于图像识别任务。
【15】Data Augmentation 数据增强:通过添加对现有数据的轻微修改的副本,增加用于训练模型的数据量和多样性的过程。
【16】Deep Learning 深度学习: 机器学习的一个子领域,专注于训练具有多层的神经网络,从而实现复杂模式的学习。
【17】Diffusion 扩散: 在AI和机器学习中,一种通过开始使用一部分真实数据并添加随机噪声来生成新数据的技术。扩散模型是一种生成模型,在该模型中,神经网络被训练以预测当随机噪声被添加到数据时的反向过程。扩散模型被用来生成与训练数据相似的新数据样本。
【18】Double Descent 双下降:机器学习中的一种现象,其中模型性能随着复杂性的增加而提高,然后恶化,然后再次提高。
【19】Embedding 嵌入: 数据的新型表示,通常是向量空间。相似的数据点具有更相似的嵌入。
【20】Emergence/Emergent Behavior (sharp left turns, intelligence explosions) 出现/新兴行为(急转弯,智力爆炸):在AI中,新兴行为指的是从简单的规则或交互中产生的复杂行为。急转弯和智力爆炸是AI发展突然并急剧变化的推测性场景,通常与AGI的到来有关。
【21】End-to-End Learning 端到端学习: 一种机器学习模型,无需手动设计特征。模型只需输入原始数据,并从这些输入中学习。
【22】Expert Systems 专家系统:应用人工智能技术为特定领域内的复杂问题提供解决方案。
【23】Explainable AI (XAI) 可解释AI(XAI): 专注于创建提供明确和可理解的决策解释的透明模型的AI子领域。
【24】Fine-tuning 微调 :采取一个已经在大数据集上预训练的模型,然后在特定的、更小的数据集上进行二次训练以适应特定的任务或问题。
【25】Forward Propagation 正向传播 在神经网络中,正向传播是将输入数据输入到网络并通过每一层(从输入层到隐藏层,最后到输出层)传递以产生输出的过程。网络应用权重和偏置到输入,并使用激活函数生成最终输出。
【26】Foundation Model 基础模型: 在广泛数据上训练的大型AI模型,用于适应特定任务。
【27】General Adversarial Network (GAN) 生成对抗网络(GAN) 一种用于生成与某些现有数据相似的新数据的机器学习模型。它将两个神经网络互相对抗:一个生成器创建新数据,一个判别器试图区分该数据和真实数据。
【28】Generative AI 生成型AI: 一个专注于创建可以基于现有数据的模式和示例生成新的、原创的内容(如图像、音乐或文本)的模型的AI分支。
【29】GPT (Generative Pretrained Transformer) GPT(生成预训练变压器) 由OpenAI开发的大型AI语言模型,可以生成类似人类的文本。
【30】GPU (Graphics Processing Unit) GPU(图形处理单元): 一种专用的微处理器类型,主要设计用于快速渲染图像以输出到显示器。GPU还非常有效地执行训练和运行神经网络所需的计算。
【31】Gradient Descent 梯度下降:在机器学习中,梯度下降是一种优化方法,通过根据其损失函数的最大改善方向逐渐调整模型的参数。例如,在线性回归中,梯度下降通过反复调整线的斜率和截距来寻找最佳拟合线,以最小化预测错误。
【32】Hallucinate/Hallucination 幻觉/幻想:在AI的上下文中,幻想指的是模型生成的内容不基于实际数据或与现实大相径庭的现象。
【33】Hidden Layer 隐藏层:在神经网络中,隐藏层是人工神经元的层,这些神经元并未直接连接到输入或输出。
【34】Hyperparameter Tuning 超参数调优:选择机器学习模型的超参数(数据未学习的参数)的适当值的过程。
【35】Inference 推理:用已训练的机器学习模型进行预测的过程。
【36】Instruction Tuning 指令调优: 一种机器学习技术,其中模型根据数据集中给出的特定指令进行微调。
【37】Large Language Model (LLM) 大型语言模型(LLM):一种可以生成类人类文本的AI模型,训练在广泛的数据集上。
【38】Latent Space 潜在空间: 在机器学习中,这个术语指的是模型(如神经网络)创建的数据的压缩表示。相似的数据点在潜在空间中更接近。
【39】Loss Function (or Cost Function) 损失函数(或成本函数) 机器学习模型在训练期间试图最小化的函数。它量化了模型预测与真实值的差距。
【40】Machine Learning 机器学习 一种人工智能类型,使系统能够在无需明确编程的情况下自动学习并从经验中改进。
【41】Mixture of Experts 专家混合 一种机器学习技术,其中训练了几个专门的子模型(专家),并且他们的预测是以取决于输入的方式组合的。
【42】Multimodal 多模态 在AI中,这指的是可以理解和生成跨多种数据类型(如文本和图像)的信息的模型。
【43】Natural Language Processing (NLP) 自然语言处理(NLP) 一个关注计算机和人类通过自然语言进行交互的AI子领域。NLP的最终目标是阅读,解读,理解,并以有价值的方式理解人类语言。
【44】NeRF (Neural Radiance Fields) NeRF(神经辐射场): 使用神经网络从2D图像创建3D场景的方法。它可以用于照片真实的渲染,视图合成等等。
【45】Neural Network 神经网络:一种受人脑启发的AI模型。它由连接在一起的单位或节点组成——称为神经元——这些神经元按层次组织。神经元接收输入,对它们进行一些计算,并产生输出。
【46】Objective Function 目标函数: 机器学习模型在训练期间试图最大化或最小化的函数。
【47】Overfitting 过拟合:当一个统计模型或机器学习算法无法充分捕获数据的基础结构时发生的建模错误。
【48】Parameters 参数:在机器学习中,参数是模型用来做预测的内部变量。它们在训练过程中从训练数据中学习。例如,在神经网络中,权重和偏差就是参数。
【49】Pre-training 预训练: 训练机器学习模型的初始阶段,其中模型从数据中学习通用特征、模式和表示,而不需要具体了解将来将应用的任务的具体知识。这种无监督或半监督的学习过程使模型能够发展出对基础数据分布的基础理解,并提取出可以用于特定任务的后续微调中的有意义的特征。
【50】Prompt 提示: 设置任务或查询模型的初始上下文或指示。
【51】Regularization 正则化 在机器学习中,正则化是一种用于防止过拟合的技术,通过在模型的损失函数中添加一个惩罚项。这个惩罚阻止模型过度依赖训练数据中的复杂模式,从而提倡更具普遍性和不易过拟合的模型。
【52】Reinforcement Learning 强化学习: 一种机器学习类型,其中一个代理通过在环境中采取行动来最大化某些奖励来学习做决策。
【53】RLHF (Reinforcement Learning from Human Feedback) RLHF(来自人类反馈的强化学习): 一种通过学习人类对模型输出给予的反馈来训练AI模型的方法。
【54】Singularity 奇点:在AI的上下文中,奇点(也被称为技术奇点)指的是一个假设的未来时点,当时技术增长变得无法控制和不可逆转,导致对人类文明的不可预见的变化。
【55】Supervised Learning 监督学习:一种机器学习类型,在该类型中,模型被提供带有标签的训练数据。
【56】Symbolic Artificial Intelligence 符号人工智能: 一种利用符号推理解决问题和表示知识的AI类型。
【57】TensorFlow :由Google开发的用于构建和训练机器学习模型的开源机器学习平台。
【58】TPU (Tensor Processing Unit) TPU(张量处理单元):Google专门开发的用于加速机器学习工作负载的一种微处理器类型。
【59】Training Data 训练数据:用于训练机器学习模型的数据集。
【60】Transfer Learning 迁移学习: 机器学习中使用预训练模型用于新问题的一种方法。
【61】Transformer:主要用于处理自然语言等序列数据的一种特定类型的神经网络架构。由于一种叫做注意力的机制,Transformer模型能够处理数据中的长距离依赖关系,这种机制允许模型在产生输出时权衡不同输入的重要性。
【62】Underfitting 欠拟合: 当统计模型或机器学习算法不能充分捕获数据的基础结构时发生的建模错误。
【63】Unsupervised Learning 无监督学习:一种机器学习类型,其中模型并未提供带标签的训练数据,而必须自行识别数据中的模式。
【64】Validation Data 验证数据:机器学习中用于调整超参数(即,架构,而非权重)的模型的数据集子集,该子集与训练和测试数据集分开。
【65】XAI (Explainable AI) XAI(可解释的AI): 一种AI子领域,专注于创建提供其决策的清晰和可理解解释的透明模型。
【66】Zero-shot Learning 零样本学习: 一种机器学习类型,其中模型对在训练期间未见过的条件进行预测,无需任何微调。