- 为什么需要自然语言处理(NLP)?
- One-hot编码,词袋模型(One hot Encoding, Bag Of Words)
- TFIDF
- Word2Vec,AvgWord2Vec
- 人工神经网络(ANN)- 多层神经网络的工作原理
- 前向传播,反向传播(Forward Propogation, Backward Propogation)
- 激活函数,损失函数(Activation Functions, Loss Functions)
- 优化器(Optimizers)
- 循环神经网络(RNN), LSTM RNN
- GRU RNN 循环神经网络
- 双向LSTM循环神经网络(Bidirection LSTM RNN)
- 编码器-解码器模型、注意力机制、序列到序列模型(Encoder Decoder, Attention is all you need ,Seq to Seq)
- Transformers模型
- ChromaDB
- 基于Facebook AI相似性搜索(FAISS)库的FAISS向量数据库
- 基于Lance数据格式的LanceDB向量数据库
- 用于存储向量的Cassandra数据库
- AWS
- Azure
- LangSmith
- LangServe
- HuggingFace Spaces
请注意,上述路线图仅供参考,旨在帮助您学习生成式人工智能。您可以根据自己的兴趣和需求进行适当的调整和扩展。