Linxii's Blog
NLP基础学习笔记1Blur image
评分准则
平平无奇的论文
正常的论文
广受认可或者让我眼前一亮的论文
奠基性的论文或者我非常喜欢的论文
毋庸置疑的最棒的论文

自然语言处理#

1.Intro#

1.1.自然语言处理任务#

  • 语言建模(Language Modeling):预测下一个词或填补句子中的空白。
  • 机器翻译(Machine Translation):将文本从一种语言翻译成另一种语言。
  • 情感分析(Sentiment Analysis):识别文本中的情感倾向。
  • 命名实体识别(Named Entity Recognition, NER):识别文本中的实体,如人名、地名等。
  • 问答系统(Question Answering):根据给定的问题从文本中提取答案。

1.2.自然语言处理发展#

  自然语言处理的发展经历了从基于规则的方法统计方法,再到深度学习的方法。早期的方法依赖于手工设计的规则和特征提取技术。随着统计方法的发展,基于概率模型的方法如隐马尔可夫模型(HMM)和条件随机场(CRF)被广泛应用。近年来,深度学习方法,特别是基于Transformer架构的方法,如BERT和GPT,显著提升了自然语言处理任务的性能。

2.词嵌入#

2.1.词袋模型(Bag of Words)#

  词袋模型是一种简单的文本表示方法,将文本表示为词的无序集合,忽略了词的顺序和语法结构。每个文本被表示为一个向量,向量的每个维度对应一个词汇表中的词,值表示该词在文本中出现的频率或存在与否。

2.2.词向量(Word Embeddings)#

  词向量是一种将词映射到连续向量空间的方法,捕捉词之间的语义关系。常见的词向量方法包括Word2Vec和GloVe。词向量通过训练神经网络模型,使得语义相似的词在向量空间中距离较近。

3.经典NLP模型#

3.1.Word2Vec#

Arxiv ID 1301.3781
幻觉翻译 1301.3781

Word2Vec通过两种架构(CBOW和Skip-gram)来学习词向量。CBOW模型通过上下文词预测目标词,而Skip-gram模型通过目标词预测上下文词。

推荐指数:

3.2 RNN#

Arxiv ID 1308.0850
幻觉翻译 1308.0850

RNN通过循环连接来处理序列数据,能够捕捉序列中的时间依赖关系。然而,传统的RNN存在梯度消失和梯度爆炸问题,以及串行的运行方式,限制了其在长序列上的表现。

推荐指数:

3.3 LSTM#

Arxiv ID

LSTM引入了门控机制(输入门、遗忘门和输出门),有效地解决了传统RNN的梯度消失问题,使其能够捕捉更长时间的依赖关系。

推荐指数:

3.4 GRU#

Arxiv ID 1406.1078
幻觉翻译 1406.1078

GRU是一种简化的LSTM,结合了输入门和遗忘门为更新门,减少了参数数量,同时保持了捕捉长时间依赖关系的能力。

推荐指数:

4.Transformer在自然语言处理中的应用#

4.1.BERT (Bidirectional Encoder Representations from Transformers)#

Arxiv ID 1810.04805
幻觉翻译 1810.04805

BERT使用双向Transformer编码器,通过掩码语言模型(Masked Language Model, MLM)和下一句预测(Next Sentence Prediction, NSP)任务进行预训练。BERT能够捕捉上下文信息,提高了多种NLP任务的性能。

推荐指数:

4.2.GPT 1 (Generative Pre-trained Transformer)#

GPT使用单向Transformer解码器,通过自回归语言模型进行预训练。GPT在生成任务中表现出色,能够生成连贯且有意义的文本。

推荐指数:
NLP基础学习笔记1
https://linxii.top/blog/base-learning-3-nlp
Author 林夕夕
Published at January 14, 2026
Comment seems to stuck. Try to refresh?✨