Cointime

扫码下载App
iOS & Android

人工智能入门必读|A16z 整理的 AI 词汇表

作者:a16z  编译:Cointime Lu Tian

  • 加速器(Accelerator)

一类微处理器,设计用于加速AI应用。

  • 代理(Agents)

能够独立地、主动地执行某些任务而无需人类干预的软件,通常使用一套工具,如计算器或网页浏览。

  • 人工通用智能(AGI,Artificial General Intelligence)

尽管没有广泛达成共识,但微软研究人员将AGI定义为在任何智力任务上与人类具备一样能力的人工智能。

  • 对齐(Alignment)

确保AI系统的目标与人类价值观一致的任务。

  • 人工超智能(ASI,Artificial Super Intelligence)

尽管存在争议,但ASI通常被定义为超越人类思维能力的人工智能。

  • 注意力(Attention)

在神经网络背景下,注意力机制帮助模型在生成输出时关注输入的相关部分。

  • 反向传播(Back Propagation)

一种经常用于训练神经网络的算法,指计算损失函数关于网络权重的梯度的方法。

  • 偏差(Bias)

AI模型对数据所做的假设。 “偏差方差权衡”是模型对数据所做假设与模型预测在不同训练数据下变化的平衡。归纳偏差是机器学习算法对数据底层分布所做的一组假设。

  • 思维链(Chain of Thought)

在AI中,这个术语通常用来描述AI模型用来得出决策的一系列推理步骤。

  • 聊天机器人(Chatbot)

一种计算机程序,通过文本或语音交互模拟人类对话。聊天机器人通常利用自然语言处理技术来理解用户输入并提供相关回应。

  • ChatGPT

由OpenAI开发的大规模AI语言模型,生成类似于人类的文本。

  • CLIP(对比性语言-图像预训练,Contrastive Language–Image Pretraining)

由OpenAI开发的AI模型,连接图像和文本,使其能够理解和生成图像描述。

  • 计算(Compute)

用于训练或运行AI模型的计算资源(如CPU或GPU时间)。

  • 卷积神经网络(CNN,Convolutional Neural Network)

一种深度学习模型,通过应用一系列滤波器处理具有网格状拓扑的数据(例如图像)。这类模型通常用于图像识别任务。

  • 数据增强(Data Augmentation):

通过添加现有数据的略微修改的副本,增加用于训练模型的数据量和多样性的过程。

  • 深度学习(Deep Learning)

机器学习的一个子领域,专注于训练具有多层的神经网络,使其能够学习复杂的模式。

  • 扩散(Diffusion)

在AI和机器学习中,一种通过从真实数据开始并添加随机噪声来生成新数据的技术。扩散模型是一种生成模型,其中神经网络被训练来预测在数据上添加随机噪声时的反向过程。扩散模型用于生成与训练数据相似的新数据样本。

  • 双下降(Double Descent)

机器学习中的一种现象,其中模型性能随着复杂度的增加而提高,然后恶化,然后再次提高。

  • 嵌入(Embedding)

数据以新形式(通常是向量空间)表示。相似的数据点具有更相似的嵌入。

  • 涌现/涌现行为(Emergence/Emergent Behavior)

在AI中,涌现指由简单规则或交互产生的复杂行为。“急转弯”和“智能爆炸”是AI发展突然发生巨大变化的推测性场景,通常与AGI的到来相关。

  • 端到端学习(End-to-End Learning)

一种不需要手工设计特征的机器学习模型。该模型只需输入原始数据,并从这些输入中学习。

  • 专家系统(Expert Systems)

应用人工智能技术为特定领域内的复杂问题提供解决方案。

  • 可解释AI(XAI,Explainable AI)

关注创建透明模型并提供其决策清晰可理解解释的AI子领域。

  • 微调(Fine-tuning)

将一个已经在大型数据集上经过预训练的机器学习模型进行调整以适应稍微不同的任务或特定领域的过程。在微调过程中,使用较小的、任务特定的数据集进一步调整模型的参数,使其能够学习任务特定的模式,并在新任务上提高性能。

  • 前向传播(Forward Propagation)

在神经网络中,前向传播是将输入数据输入网络并通过每一层(从输入层到隐藏层,最后到输出层)传递以产生输出的过程。网络对输入应用权重和偏差,并使用激活函数生成最终输出。

  • 基础模型(Foundation Model)

在广泛数据上训练的大型AI模型,旨在用于特定任务的适应。

  • 生成对抗网络(GAN,General Adversarial Network)

一种用于生成与现有数据相似的新数据的机器学习模型。它将两个神经网络相互对抗:一个“生成器”创建新数据,一个“判别器”尝试将这些数据与真实数据区分开来。

  • 生成式AI(Generative AI)

一个关注创建可以基于现有数据的模式和示例生成新的和原创内容(如图像、音乐或文本)的模型的AI分支。

  • GPT(生成预训练Transformer,Generative Pretrained Transformer)

由OpenAI开发的大规模AI语言模型,生成类似于人类的文本。

  • GPU(图形处理单元,Graphics Processing Unit)

一种专门的微处理器类型,主要设计用于快速渲染图像以输出到显示器。GPU还非常擅长执行训练和运行神经网络所需的计算。

  • 梯度下降(Gradient Descent)

在机器学习中,梯度下降是一种优化方法,它根据损失函数的最大改进方向逐步调整模型的参数。例如,在线性回归中,梯度下降通过反复优化线的斜率和截距来最小化预测误差,从而找到最佳匹配线。

  • 幻觉/幻觉现象(Hallucinate/Hallucination)

在AI的背景下,幻觉指的是模型生成的内容不基于实际数据或与现实相差很大的现象。

  • 隐藏层(Hidden Layer)

神经网络中不直接连接输入或输出的人工神经元层。

  • 超参数调优(Hyperparameter Tuning)

选择机器学习模型的超参数(从数据中未学习到的参数)的适当值的过程。

  • 推理(Inference)

利用训练好的机器学习模型进行预测的过程。

  • 指令调优(Instruction Tuning)

一种机器学习技术,根据数据集中给出的特定指令对模型进行微调。

  • 大型语言模型(LLM, Large Language Model)

一种能生成类似人类文本的AI模型,训练于广泛的数据集。

  • 潜在空间(Latent Space)

在机器学习中,这个术语指的是模型(如神经网络)创建的数据的压缩表示。相似的数据点在潜在空间中更接近。

  • 损失函数(或代价函数,Loss Function or Cost Function)

机器学习模型在训练过程中试图最小化的函数。它量化了模型预测与真实值之间的差距。

  • 机器学习(Machine Learning)

一种人工智能类型,使系统能够在无需明确编程的情况下自动学习和从经验中改进。

  • 专家混合(Mixture of Experts)

一种机器学习技巧,其中训练了几个专门的子模型(“专家”),并以依赖于输入的方式组合它们的预测。

  • 多模态(Multimodal)

在AI中,这是指可以理解和生成跨多种数据类型(如文本和图像)的信息的模型。

  • 自然语言处理(NLP, Natural Language Processing)

AI的一个子领域,专注于计算机和人类通过自然语言进行交互。NLP的最终目标是以有价值的方式阅读、解密、理解并理解人类语言。

  • NeRF(神经辐射场,Neural Radiance Fields)

一种使用神经网络从2D图像创建3D场景的方法。它可用于照片级渲染、视图合成等。

  • 神经网络(Neural Network)

一种受人类大脑启发的AI模型。它由连接在一起的单元或节点组成,称为神经元,这些神经元按层组织。神经元接收输入,对它们进行一些计算,并产生输出。

  • 目标函数(Objective Function)

机器学习模型在训练过程中试图最大化或最小化的函数。

  • 过拟合(Overfitting)

一种建模错误,当函数与有限数据点过于紧密匹配时发生,导致在应用于未见数据时预测性能不佳。

  • 参数(Parameters)

在机器学习中,参数是模型用来进行预测的内部变量。它们是在训练过程中从训练数据中学习的。例如,在神经网络中,权重和偏差是参数。

  • 预训练(Pre-training)

训练机器学习模型的初始阶段,模型在此阶段从数据中学习通用特征、模式和表示,而无需具体了解将来要应用到的任务。这种无监督或半监督学习过程使模型能够建立对底层数据分布的基本理解,并提取有意义的特征,这些特征可以用于后续针对特定任务的微调。

  • 提示(Prompt)

为模型设置任务或查询的初始上下文或指令。

  • 正则化(Regularization)

在机器学习中,正则化是一种防止过拟合的技术,通过在模型的损失函数中添加惩罚项来实现。这种惩罚阻止模型过分依赖训练数据中的复杂模式,从而促进更具泛化能力和不容易过拟合的模型。

  • 强化学习(Reinforcement Learning)

一种机器学习类型,其中智能体通过在环境中采取行动来最大化某种奖励,从而学会做出决策。

  • RLHF(来自人类反馈的强化学习,Reinforcement Learning from Human Feedback)

一种通过从人类对模型输出给出的反馈中学习来训练AI模型的方法。

  • 奇点(Singularity)

在AI背景下,奇点(也称为技术奇点)指的是一个假设的未来时间点,当时技术增长变得无法控制和不可逆转,导致人类文明发生无法预料的变化。

  • 监督学习(Supervised Learning)

一种机器学习类型,其中模型提供带有标签的训练数据。

  • 符号人工智能(Symbolic Artificial Intelligence)

一种利用符号推理解决问题和表示知识的AI类型。

  • TensorFlow

由谷歌开发的开源机器学习平台,用于构建和训练机器学习模型。

  • TPU(Tensor Processing Unit)

谷歌专门为加速机器学习工作负载开发的一种微处理器类型。

  • 训练数据(Training Data)

用于训练机器学习模型的数据集。

  • 迁移学习(Transfer Learning)

机器学习中的一种方法,将预训练模型应用于新问题。

  • Transformer

一种主要用于处理顺序数据(如自然语言)的特定类型神经网络结构。Transformer以其处理数据中长距离依赖性的能力而闻名,这要归功于一种名为“注意力”的机制,它允许模型在产生输出时权衡不同输入的重要性。

  • 欠拟合(Underfitting)

统计学和机器学习中的建模错误,当统计模型或机器学习算法无法充分捕捉数据的底层结构时发生。

  • 无监督学习(Unsupervised Learning)

一种机器学习类型,其中模型没有提供带有标签的训练数据,而是必须自行识别数据中的模式。

  • 验证数据(Validation Data)

用于机器学习的数据集的子集,与训练和测试数据集分开。它用于调整模型的超参数(即结构,而不是权重)。

  • XAI(可解释AI,Explainable AI)

AI的一个子领域,专注于创建透明的模型,为其决策提供清晰、易于理解的解释。

  • 零样本学习(Zero-shot Learning)

一种机器学习类型,其中模型在训练期间未见过的条件下进行预测,无需进行任何微调。

评论

所有评论

推荐阅读

  • Cointime 4月27日要闻速递

    1. 港交所:将博时 HashKey、华夏、嘉实比特币及以太币ETF收纳为中央结算系统多柜台合资格证券

  • 港交所:将博时 HashKey、华夏、嘉实比特币及以太币ETF收纳为中央结算系统多柜台合资格证券

    香港交易所发布三份通告,宣布收纳博时 HashKey 比特币 ETF 股份及博时 HashKey 以太币 ETF 股份、华夏比特币 ETF 股份及华夏以太币 ETF 股份、嘉实比特币现货 ETF 股份及嘉实以太币现货 ETF 股份为中央结算系统多柜台合资格证券。据悉:

  • 俄罗斯央行和Rosfinmonitoring披露法币-加密货币跟踪系统试点

    Odaily星球日报讯 自 2023 年以来,俄罗斯一直试图追踪加密货币交易及其来源。俄罗斯银行和俄罗斯联邦金融监测局(Rosfinmonitoring)透露,目前存在一个系统,允许私人银行跟踪基于法币的交易与加密货币业务之间的联系。该公告是在 Rosfinmonitoring 组织的“当前反洗钱/反恐融资问题”论坛上发布的,该论坛还披露,该试点于 2023 年开始,五家大型信贷机构正在与 Rosfinmonitoring 合作,预计将持续到明年4月,但也可以延长。Rosfinmonitoring 合作伙伴 Innotech 的项目投资组合管理总监 Ilya Bushmelev 表示,该试点可能会帮助银行建立“了解您的加密客户”和“了解您的加密交易”程序,并指出该系统可能对合规和监管目的有用。(Bitcoin.com)

  • PolkaWorld:Kusama上的Coretime交易已开始

    4月27日消息,PolkaWorld 发文表示,Kusama 上的 Coretime 交易已开始,平行链时代谢幕。随着 Kusama 373 号公投的通过和执行,该提案将 Kusama 中继链运行时升级至 v1.2.0,并带来了 Coretime 的功能。紧接着,在上周五社区又通过了 Kusmaa 375 号公投,允许 Coretime 链开始 Coretime 的销售。当前,Kusama 正在进行续订期(Renew Period),即正在进行批量核心的售卖。

  • 价值超1.55亿美元的MEME将于5月3日解锁,占流通供应量的31.96%

    据 Token Unlocks 数据,价值超 1.55 亿美元的 53.1 亿枚 MEME 将于 2024 年 5 月 3 日解锁,占流通供应量的 31.96%。这些代币将被解锁并分配给空投、顾问和投资者。

  • 全网BTC期权未平仓头寸为178.3亿美元,ETH期权未平仓头寸为80.7亿美元

    Coinglass 数据显示,目前全网 BTC 期权未平仓头寸的名义价值为 178.3 亿美元,为 2 月 26 日以来低点;ETH 期权未平仓头寸的名义价值为 80.7 亿美元,为 2 月 25 日以来低点。

  • IOSG Weekly Brief|从AI x Web3技术堆栈展开infra新叙事 #219

    最近大型语言模型(LLMs)的迅猛发展引发了人们对利用人工智能(AI)改造各行业的兴趣。区块链行业也未能幸免,AI x Crypto 叙事的出现使其备受瞩目。本文探讨了融合AI和加密的三种主要方式,并探讨了区块链技术在解决AI行业问题上的独特机遇。

  • ABCDE:从一级市场视角看待AI+Crypto

    时隔ChatGPT发布一年多,最近市场上关于AI+Crpyo的讨论再次热闹起来,AI被视作24–25年牛市一个最为重要的赛道之一,就连V神本人都发文《The promise and challenges of crypto + AI applications》(Crypto+AI 应用前景和挑战)探讨未来AI+Cryto可能的探索方向。

  • Cointime 12月5日晚间要闻速递

    1.OpenSea:正在与Thirdweb联系,以了解部分NFT藏品的安全漏洞

  • 发布1周年,一文理清ChatGPT时间线

    AI 元年,历史上的今天。