LLM

LLM(Large Language Model,大语言模型) 是一种 基于人工智能(AI)和深度学习 的 自然语言处理(NLP)模型,能够理解、生成和处理人类语言。它是 GPT-4、ChatGPT、Claude、Gemini、Llama 这些 AI 的核心技术。

{{totalSubscript}} 订阅 ,1,973 游览
    1
    推荐
    9.8k
    浏览
    什么是MCP
    MCP(Model Context Protocol,模型上下文协议),2024年11月底,由 Anthropic 推出的一种开放标准,**旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议**。MCP 的主要目的在于解决当前 AI 模型因数据孤岛限制而无法充分发挥潜力的难题,MCP 使...
     半兽人 发布于2月前
    0
    推荐
    66
    浏览
    AGI通用人工智能
    **AGI**(Artificial General Intelligence,通用人工智能)是指具有人类一般智能水平的人工智能系统,能在**各种任务和领域中像人一样理解、学习、推理、适应和执行任务**,而不仅仅局限在某一个特定应用场景。 一句话解释:AGI 就是能像人一样“通才”的人工智能,而不是...
     半兽人 发布于2月前
    0
    推荐
    555
    浏览
    什么是分词器
    **分词器(Tokenizer)** 是一种将文本拆分为 **token(标记)** 的工具。在自然语言处理(NLP)和大语言模型(LLM)中,分词器负责把输入文本转换成 **模型可以理解的最小单元**,通常是单词、子词或字符。 **为什么需要分词器?**计算机无法直接理解人类语言,它只能处理数...
     半兽人 发布于5月前
    0
    推荐
    491
    浏览
    大模型的token是什么?
    在自然语言处理(NLP)中,**token(标记)**是文本的最小单位,通常是一个单词、子词或字符。模型处理文本时,会将输入拆分成多个 token,并根据这些 token 进行计算和预测。例如,“I love you”这个句子可以被分割成三个token:“I”,“love”和“you”。token可...
     半兽人 发布于5月前
    0
    推荐
    417
    浏览
    Embedding和分词器
    **Embedding 不是分词器(Tokenizer),但它们经常配合使用。** **1. 分词器(Tokenizer)和 Embedding 的区别** | **概念** | **作用** | **示例** ||----------|--------|---------|| **分词器(T...
     半兽人 发布于5月前
    0
    推荐
    957
    浏览
    BERT 模型是什么?
    BERT(Bidirectional Encoder Representations from Transformers)是一种由 Google 在 2018 年提出的自然语言处理(NLP)模型,它在当时彻底改变了语言模型的设计思路。名字里的几个关键词已经透露了它的特点:**双向**(Bidirec...
     半兽人 发布于5月前
    0
    推荐
    555
    浏览
    Byte-Pair Encoding,BPE是什么
    Byte-Pair Encoding(BPE,字节对编码)是一种分词(tokenization)方法,最初用于数据压缩,后来被广泛应用到自然语言处理(NLP)中,尤其是在大语言模型的分词器里。它的核心思想是通过统计字符或子词的出现频率,逐步合并最常见的一对(pair),生成一个更紧凑且灵活的词表。简...
     半兽人 发布于5月前
    0
    推荐
    431
    浏览
    大模型RAG(检索增强生成)
    RAG 是 "Retrieval-Augmented Generation"(检索增强生成)的缩写,是一种结合了`信息检索`和`生成式人`工智能的技术方法。它主要用于提升语言模型的性能,让模型在生成回答时能够利用外部知识库,而不是仅仅依赖预训练时的内部知识。具体来说,RAG 工作原理通常分为两步:1...
     半兽人 发布于5月前
    0
    推荐
    532
    浏览
    大模型微调和RAG
    大模型的微调(Fine-tuning)和 RAG(检索增强生成,Retrieval-Augmented Generation)是两种常见的提升大语言模型能力的方法,但它们的思路和使用场景不同。下面是它们的对比说明: 一、微调(Fine-tuning) 定义:在一个已经训练好的大语言模型基础上,继续用...
     半兽人 发布于3月前
    0
    推荐
    749
    浏览
    什么是LoRA?
    一、LoRALoRA,英文全称`Low-Rank Adaptation of Large Language Models`,直译为大语言模型的`低阶适配`,是微软的研究人员为了解决大语言模型微调而开发的一项技术。例如,GPT-3有1750亿参数,为了让它能干特定领域的活儿,需要做微调,但是如果直接...
     半兽人 发布于3月前
1 / 2 跳转到