sadasddasads
Transformer:
Transformer、GPT、BERT,预训练语言模型的前世今生(目录) - B站-水论文的程序猿 - 博客园
10 Transformer 之 Self-Attention(自注意力机制)_哔哩哔哩_bilibili
LSTM rnn GRU:
(24 封私信 / 72 条消息) RNN、LSTM、GRU序列模型对比 - 知乎
【干货】人人都能看懂的GRU
人人都能看懂的LSTM
提示词工程
(24 封私信 / 72 条消息) Effective Prompt: 编写高质量Prompt的14个有效方法 - 知乎