AI Term

AI Term(AI术语) #

  1. Agent(智能体)一种以大语言模型驱动的人工智能程序,能够自主感知环境并采取行动以实现目标,拥有自主推理决策、规划行动、检索记忆、选择工具执行任务等能力
  2. AI Hallucination(AI幻觉)AI生成的内容与现实世界的知识不一致或与实际数据显著不同的现象
  3. Application Program Interface(API,应用程序接口)应用程序交互所需的一组定义和协议。API描述了程序必须使用的方法和数据格式,以与其他软件进行通信。比如,OpenAI允许开发人员通过API使用GPT-4和ChatGPT
  4. Artificial Intelligence(AI,人工智能)计算机科学的一个领域,专注于创建算法以执行传统上由人类执行的任务,比如处理自然语言、分析图像、解决复杂问题和做出决策
  5. Artificial Neural Network(人工神经网络)受人脑结构启发的计算模型,用于处理复杂的机器学习任务。它由相互连接的神经元层组成,通过加权连接来转换输入数据。一些类型的人工神经网络(如循环神经网络)可用于处理具有记忆元素的顺序数据,而其他类型的人工神经网络(如基于Transformer架构的模型)则使用注意力机制来衡量不同输入的重要性。大语言模型是人工神经网络的一个显著应用
  6. Attention Mechanism(注意力机制)神经网络架构的一个组件,它使模型在生成输出时能够关注输入的不同部分。注意力机制是Transformer架构的关键,使其能够有效地处理长数据序列
  7. Catastrophic Forgetting(灾难性遗忘)这是模型的一种倾向,具体指模型在学习新数据时忘记先前学到的信息。这种限制主要影响循环神经网络。循环神经网络在处理长文本序列时难以保持上下文
  8. Chain of Thought(CoT,思维链)一种提示工程技术,要求模型展示其推理过程,通过逐步思考来解决问题。核心思想是通过向大语言模型展示少量的示例,在示例中将具体问题拆分成多个推理步骤,并要求模型遵循多步,比如"让我们逐步思考"。这种方法特别适合需要复杂推理的任务(如算术推理、常识推理和符号推理),能显著改善模型在复杂推理任务上的表现
  9. Chatbot(聊天机器人)用于通过文本(或文本转语音)进行聊天式对话的应用程序。聊天机器人通常用于模拟人类的讨论和互动。现代聊天机器人是使用大语言模型开发的,并且拥有较强的语言处理能力和文本生成能力
  10. Context Window(上下文窗口)大语言模型在生成信息时可以处理的目标标记周围的文本范围。上下文窗口大小对于理解和生成与特定上下文相关的文本至关重要。一般而言,较大的上下文窗口可以提供更丰富的语义信息
  11. Deep Learning(DL,深度学习)机器学习的一个子领域,专注于训练具有多层的神经网络,从而实现对复杂模式的学习
  12. Embedding(嵌入)表示词语或句子且能被机器学习模型处理的实值向量。对于值较为接近的向量,它们所表示的词语或句子也具有相似的含义。在信息检索等任务中,嵌入的这种特性特别有用
  13. Facebook AI Similarity Search(Faiss,Facebook AI相似性搜索)Facebook AI团队开源的针对聚类和相似性搜索的库,为稠密向量提供高效的相似性搜索和聚类,支持十亿级别向量的搜索,是目前较为成熟的近似近邻搜索库
  14. Few-shot Learning(少样本学习)一种仅用很少的示例训练机器学习模型的技术。对于大语言模型而言,这种技术可以根据少量的输入示例和输出示例来引导模型响应
  15. Fine-tuning(微调)在微调过程中,预训练模型(如GPT-3或其他大语言模型)在一个较小、特定的数据集上进一步训练。微调旨在重复使用预训练模型的特征,并使其适应于特定任务。对于神经网络来说,这意味着保持结构不变,仅稍微改变模型的权重,而不是从头开始构建模型
  16. Foundation Model(基础模型)一类在大规模数据上预训练的AI模型,能够适应各种下游任务。这类模型通常具有强大的泛化能力和迁移学习能力。基础模型是在大量未标记数据上进行训练的,可以执行各种任务,如图像分析和文本翻译。基础模型的关键特点是能够通过无监督学习从原始数据中学习,并能够通过微调来执行特定任务
  17. Function Call(函数调用)OpenAI开发的一项功能,它允许开发人员在调用GPT模型的API时,描述函数并让模型智能地输出一个包含调用这些函数所需参数的JSON对象。利用它,我们可以更可靠地将GPT的能力与外部工具和API相结合
  18. Generative AI(GenAI,生成式人工智能)人工智能的一个子领域,专注于通过学习现有数据模式或示例来生成新的内容,包括文本、代码、图像、音频等,常见应用包括聊天机器人、创意图像生成和编辑、代码辅助编写等
  19. Generative Pre-trained Transformer(GPT,生成式预训练Transformer)由OpenAI开发的一种大语言模型。GPT基于Transformer架构,并在大量文本数据的基础上进行训练。
  20. Inference(推理)使用训练过的机器学习模型进行预测和判断的过程
  21. Information Retrieval(信息检索)在一组资源中查找与给定查询相关的信息。信息检索能力体现了大语言模型从数据集中提取相关信息以回答问题的能力
  22. LangChain:一个Python软件开发框架,用于方便地将大语言模型集成到应用程序中。它提供了丰富的工具和组件,使开发者能够更容易地构建基于大语言模型的应用
  23. Language Model(语言模型)用于自然语言处理的人工智能模型,能够阅读和生成人类语言。语言模型是对词序列的概率分布,通过训练文本数据来学习一门语言的模式和结构
  24. Large Language Model(LLM,大语言模型)具有大量参数(参数量通常为数十亿,甚至千亿以上)的语言模型,经过大规模文本语料库的训练。GPT-4和ChatGPT就属于LLM,它们能够生成自然语言文本、处理复杂语境并解答难题
  25. Long Short-term Memory(LSTM,长短期记忆)一种用于处理序列数据中的短期及长期依赖关系的循环神经网络架构。然而,基于Transformer的大语言模型(如GPT模型)不再使用LSTM,而使用注意力机制
  26. Machine Learning(ML,机器学习)人工智能的一个子领域,其主要任务是创建智能算法。这些算法就像学生一样,它们从给定的数据中自主学习,无须人类逐步指导
  27. Machine Translation(机器翻译)使用自然语言处理和机器学习等领域的概念,结合Seq2Seq模型和大语言模型等模型,将文本从一门语言翻译成另一门语言
  28. Multimodal Model(多模态模型)能够处理和融合多种数据的模型。这些数据可以包括文本、图像、音频、视频等不同模态的数据。它为计算机提供更接近于人类感知的场景
  29. N-gram(N-gram)一种算法,常用于根据词频预测字符串中的下一个单词。这是一种在早期自然语言处理中常用的文本补全算法。后来,N-gram被循环神经网络取代,再后来又被基于Transformer的算法取代
  30. Natural Language Processing(NLP,自然语言处理)人工智能的一个子领域,专注于计算机与人类之间的文本交互。它使计算机程序能够处理自然语言并做出有意义的回应
  31. OpenAI(OpenAI)位于美国的一个人工智能实验室,它由非营利实体和营利实体组成。OpenAI是GPT等模型的开发者。这些模型极大地推动了自然语言处理领域的发展
  32. OpenAPI(OpenAPI)规范是描述HTTP API的标准,它允许消费者与远程服务进行交互,而无须提供额外的文档或访问源代码。OpenAPI规范以前被称为Swagger规范
  33. Parameter(参数)对大语言模型而言,参数是它的权重。在训练阶段,模型根据模型创建者选择的优化策略来优化这些系数。参数量是模型大小和复杂性的衡量标准。参数量经常用于比较大语言模型。一般而言,模型的参数越多,它的学习能力和处理复杂数据的能力就越强
  34. Plugin(插件)一种专门为语言模型设计的独立封装软件模块,用于扩展或增强模型的能力,可以帮助模型检索外部数据、执行计算任务、使用第三方服务等
  35. Pre-trained(预训练)机器学习模型在大型和通用的数据集上进行的初始训练阶段。对于一个新给定的任务,预训练模型可以针对该任务进行微调
  36. Prompt(提示词)输入给语言模型的内容,模型通过它生成一个输出。比如,在GPT模型中,提示词可以是半句话或一个问题,模型将基于此补全文本
  37. Prompt Engineering(提示工程)设计和优化提示词,以从语言模型中获得所需的输出。这可能涉及指定响应的格式,在提示词中提供示例,或要求模型逐步思考
  38. Prompt Injection(提示词注入)一种特定类型的攻击,通过在提示词中提供精心选择的奖励,使大语言模型的行为偏离其原始任务
  39. Recurrent Neural Network(RNN,循环神经网络)一类表现出时间动态行为的神经网络,适用于涉及序列数据的任务,如文本或时间序列
  40. Reinforcement Learning(RL,强化学习)一种机器学习方法,专注于在环境中训练模型以最大化奖励信号。模型接收反馈并利用该反馈来进一步学习和自我改进
  41. Reinforcement Learning from Human Feedback(RLHF,通过人类反馈进行强化学习)一种将强化学习与人类反馈相结合的训练人工智能系统的先进技术,该技术涉及使用人类反馈来创建奖励信号,继而使用该信号通过强化学习来改进模型的行为
  42. Sequence-to-Sequence Model(Seq2Seq模型,序列到序列模型)这类模型将一个领域的序列转换为另一个领域的序列。它通常用于机器翻译和文本摘要等任务。Seq2Seq模型通常使用循环神经网络或Transformer来处理输入序列和输出序列
  43. Supervised Fine-tuning(SFT,监督微调)采用预先训练好的神经网络模型,并针对特定任务或领域在少量的监督数据上对其进行重新训练
  44. Supervised Learning(监督学习)一种机器学习方法,可以从训练资料中学到或建立一个模式,以达到准确分类或预测结果的目的
  45. Synthetic Data(合成数据)人工创建的数据,而不是从真实事件中收集的数据。当真实数据不可用或不足时,我们通常在机器学习任务中使用合成数据。比如,像GPT这样的语言模型可以为各种应用场景生成文本类型的合成数据
  46. Temperature(温度)大语言模型的一个参数,用于控制模型输出的随机性。温度值越高,模型结果的随机性越强;温度值为0表示模型结果具有确定性(在OpenAI模型中,温度值为0表示模型结果近似确定)
  47. Text Completion(文本补全)大语言模型根据初始的单词、句子或段落生成文本的能力。文本是根据下一个最有可能出现的单词生成的
  48. Token(标记)字母、字母对、单词或特殊字符。在自然语言处理中,文本被分解成标记。在大语言模型分析输入提示词之前,输入提示词被分解成标记,但输出文本也是逐个标记生成的
  49. Tokenization(标记化)将文本中的句子、段落切分成一个一个的标记,保证每个标记拥有相对完整和独立的语义,以供后续任务使用(比如作为嵌入或者模型的输入)
  50. Transfer Learning(迁移学习)一种机器学习技术,其中在一个任务上训练的模型被重复利用于另一个相关任务。比如,GPT在大量文本语料库上进行预训练,然后可以使用较少的数据进行微调,以适用于特定任务
  51. Transformer Architecture(Transformer架构)一种常用于自然语言处理任务的神经网络架构。它基于自注意力机制,无须顺序处理数据,其并行性和效率高于循环神经网络和长短期记忆模型。GPT基于Transformer架构
  52. Unsupervised Learning(无监督学习)一种机器学习方法,它使用机器学习算法来分析未标记的数据集并进行聚类。这些算法无须人工干预即可发现隐藏的模式或给数据分组
  53. Zero-shot Learning(零样本学习)一个机器学习概念,即大语言模型对在训练期间没有明确见过的情况进行预测。任务直接呈现在提示词中,模型利用其预训练的知识生成回应
  54. ReAct(ReAct): Synergizing Reasoning and Acting in Language Models,详见Paper https://arxiv.org/abs/2210.03629
  55. LoRA(Low-Rank Adaptation,低秩适应)一种参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)技术,通过低秩矩阵分解减少训练参数量,使得模型在保持性能的同时大大减少了需要更新的参数数量
  56. Agentic AI(智能体AI)一类具有自主决策和行动能力的人工智能系统,能够独立感知环境、制定计划、执行任务并从中学习。这类系统通常结合了大语言模型、强化学习和工具调用能力
  57. AI Alignment(AI对齐)确保AI系统的行为与人类价值观和意图保持一致的研究领域。这包括开发技术和方法来使AI系统更安全、可靠和有益
  58. AI Governance(AI治理)制定和实施管理AI系统开发、部署和使用的政策、法规和框架。这包括伦理准则、安全标准、隐私保护和责任分配等方面
  59. AI Safety(AI安全)研究和实践如何确保AI系统的安全性,包括防止有害输出、保护隐私、确保系统稳定性,以及防止AI系统被滥用
  60. Autonomous AI(自主AI)能够独立完成复杂任务而无需持续人工干预的AI系统。这类系统通常具有自我学习、适应和决策能力
  61. Constitutional AI(宪法AI)一种AI对齐方法,通过为AI系统设定明确的伦理原则和行为准则来指导其行为。这些原则通常包括诚实、无害、尊重隐私等
  62. Diffusion Model(扩散模型)一类生成式AI模型,通过逐步添加和移除噪声来生成图像、音频等数据。这类模型在图像生成领域取得了显著成功
  63. Emergent Behavior(涌现行为)AI系统在训练或运行过程中出现的未预先编程的复杂行为。这些行为通常源于模型参数之间的复杂相互作用
  64. Generative AI Safety(生成式AI安全)专注于确保生成式AI系统(如大语言模型、图像生成模型)安全性的研究领域,包括防止有害内容生成、保护隐私等
  65. Hallucination Detection(幻觉检测)识别和防止AI系统生成虚假或不准确信息的技术和方法。这对于提高AI系统的可靠性和可信度至关重要
  66. Human-AI Collaboration(人机协作)研究如何优化人类和AI系统之间的互动和协作,使两者能够互补优势,共同完成任务
  67. Interpretable AI(可解释AI)研究如何使AI系统的决策过程透明和可理解,包括开发技术来解释模型的预测和行为
  68. Multimodal Foundation Model(多模态基础模型)能够处理和生成多种类型数据(如文本、图像、音频、视频)的基础模型。这类模型能够理解不同模态之间的关系并生成跨模态内容
  69. Neural Architecture Search(NAS,神经架构搜索)使用AI来自动设计和优化神经网络架构的技术。这可以显著提高模型性能和效率
  70. Prompt Injection Defense(提示词注入防御)防止恶意用户通过精心设计的提示词操纵AI系统行为的技术和方法
  71. RAG(Retrieval-Augmented Generation,检索增强生成)一种将检索系统和生成模型结合的技术,通过检索相关文档来增强生成内容的准确性和可靠性
  72. Reinforcement Learning from AI Feedback(RLAIF,AI反馈强化学习)使用AI系统而不是人类来提供反馈进行强化学习的技术。这可以加速模型训练并降低成本
  73. Self-Supervised Learning(自监督学习)一类机器学习方法,模型从未标记的数据中学习特征表示,通过预测数据的内在结构或关系来训练
  74. Synthetic Data Generation(合成数据生成)使用AI系统生成用于训练其他AI模型的合成数据的技术。这在真实数据有限或难以获取时特别有用
  75. Tool-Augmented Language Model(工具增强语言模型)能够使用外部工具和API来扩展其能力的语言模型。这类模型可以执行计算、搜索信息、操作文件等任务
  76. Value Learning(价值学习)研究如何使AI系统学习并遵循人类价值观的技术。这对于确保AI系统的行为符合伦理和道德标准至关重要
  77. Mixture of Experts(MoE,专家混合)一种神经网络架构,将输入路由到不同的专家子网络进行处理,每个专家负责特定的任务领域。这种方法可以显著增加模型容量而不增加计算成本,被广泛应用于大语言模型中
  78. State of the Art(SOTA,最先进技术)在特定任务或领域中最新的、性能最好的技术或方法。在AI领域,SOTA通常指在标准基准测试中取得最佳性能的模型或算法
  79. Mixture of Base and Adapted Models(MoBA,基础模型和适应模型混合)一种模型架构方法,将基础模型和经过特定任务适应的模型结合起来,以平衡通用性和特定任务性能
  80. Parameter-Efficient Fine-Tuning(PEFT,参数高效微调)一类用于微调大语言模型的技术,通过只更新一小部分参数来适应新任务,从而大大减少计算资源和存储需求。常见的PEFT方法包括LoRA、Prefix Tuning等
  81. Parameter-Efficient Transfer Learning(PETL,参数高效迁移学习)专注于在迁移学习过程中最小化需要更新的参数数量的技术。这类方法可以显著降低模型适应新任务时的计算和存储开销
  82. Prompt Tuning(提示词调优)一种参数高效微调方法,通过优化可学习的提示词向量来适应新任务,而不需要更新模型参数。这种方法计算效率高,且能保持模型性能
  83. Prefix Tuning(前缀调优)一种参数高效微调技术,通过在输入序列前添加可训练的前缀向量来适应新任务。这种方法只需要训练少量参数就能实现良好的任务适应效果
  84. Adapter Tuning(适配器调优)一种参数高效微调方法,在模型的每一层插入小型可训练的神经网络层(适配器),只训练这些适配器层来适应新任务
  85. P-tuning: 一种提示词调优方法,通过优化连续提示词向量来提升模型性能。这种方法比传统的离散提示词工程更灵活和有效
  86. P-tuning v2: P-tuning的改进版本,通过在每一层都添加可训练的提示词向量来提升模型性能。这种方法能更好地捕获任务相关的特征
  87. QLoRA(量化低秩适应)一种结合了量化技术和LoRA的参数高效微调方法,可以显著减少内存使用和计算开销,同时保持模型性能
  88. Sparse Mixture of Experts(SMoE,稀疏专家混合)MoE的一种变体,通过稀疏路由机制选择性地激活专家子网络,进一步提高了计算效率
  89. Task-Specific Prompt Tuning(TSPT,任务特定提示词调优)针对特定任务优化的提示词调优方法,通过任务相关的训练数据来学习更有效的提示词表示
  90. Visual Language Model(VLM,视觉语言模型)能够同时理解和生成图像和文本的多模态模型。这类模型可以执行图像描述、视觉问答等任务
  91. Vision-Language Pre-training(VLP,视觉语言预训练)在大规模图文对数据上预训练多模态模型的技术,使模型能够学习视觉和语言之间的关联
  92. Zero-shot Prompting(零样本提示)一种提示工程技术,直接向模型描述任务而不提供任何示例。这种方法测试模型在未见任务上的泛化能力
  93. Few-shot Prompting(少样本提示)一种提示工程技术,通过提供少量示例来引导模型理解任务。这种方法通常比零样本提示效果更好
  94. Chain-of-Thought Prompting(思维链提示)一种提示工程技术,要求模型展示其推理过程,通过逐步思考来解决问题。这种方法特别适合需要复杂推理的任务
  95. Self-Consistency(自一致性)一种评估和提升模型输出的技术,通过多次采样并比较不同输出的一致性来评估答案的可靠性
  96. In-Context Learning(上下文学习)大语言模型通过提示词中的示例直接学习任务的能力,不需要显式的参数更新。这是大语言模型的一个重要特性
  97. Instruction Tuning(指令微调)通过在大规模指令数据集上微调模型来提升其遵循指令的能力。这种方法可以显著提高模型在未见任务上的表现