语言模型

  • 小红书从记忆机制解读信息检索,提出新范式获得 EACL Oral

    近日,来自小红书搜索算法团队的论文《generative dense retrieval: memory can be a burden》被自然语言处理领域国际会议 eacl 2024 接收为 oral,接受率为 11.32%(144/1

    2024-04-29
    2900
  • 自然语言处理(NLP)的工作原理

    本文早在揭开语言模型的神秘面纱,阐明其处理原始文本数据的基本概念和机制。它涵盖了几种类型的语言模型和大型语言模型,重点关注基于神经网络的模型。
    语言模型定义
    语言模型专注于生成类似人类类的文本的能力。通用语言模型本质上是单词序列的统计模型

    2024-04-24
    4100
  • 云端部署大模型的三个秘密

    编译 | 星璇
    出品 | 51CTO技术栈(微信号:blog51cto)
    在过去的两年里,我更多地参与了使用大型语言模型(LLMs)的生成AI项目,而非传统的系统。我开始怀念无服务器云计算。它们的应用范围广泛,从增强对话AI到为各行各业提供

    2024-04-24
    4300
  • 2024 年构建大规模语言模型之旅

    2024 年将见证大型语言模型 (llm) 的技术跃升,研究人员和工程师不断突破自然语言处理的界限。这些拥有海量参数的 llm 正在彻底改变我们与机器的交互方式,实现更自然的对话、代码生成和复杂推理。然而,构建这些庞然大物并非易事,它涉及数

    2024-04-18
    6300
  • 一文搞懂Tokenization!

    语言模型是对文本进行推理的,文本通常是字符串形式,但模型的输入只能是数字,因此需要将文本转换成数字形式。
    Tokenization是自然语言处理的基本任务,根据特定需求能够把一段连续的文本序列(如句子、段落等)切分为一个字符序列(如单词、短

    2024-04-12
    7900

联系我们

在线咨询: QQ交谈

邮件:442814395@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信公众号