AI 入门面试宝典
从机器学习到大模型,从RAG到模型部署,全面掌握AI工程师必备技能
课程目录
第一章:机器学习基础
- 监督学习算法(分类/回归)
- 无监督学习(聚类/降维)
- 模型评估指标
- 过拟合与正则化
第二章:深度学习核心
- 神经网络原理(前向传播/反向传播)
- CNN卷积神经网络
- RNN/LSTM循环神经网络
- Transformer架构详解
第三章:大模型原理
- GPT系列演进(GPT-1到GPT-4)
- BERT双向Transformer
- 预训练与微调
- PEFT参数高效微调(LoRA/Prefix Tuning)
第四章:RAG系统
- RAG架构与工作流程
- Embedding模型选择
- 向量数据库(Milvus/Pinecone/Chroma)
- 检索优化与Rerank
第五章:模型部署与优化
- 量化(INT8/INT4/GPTQ/AWQ)
- 剪枝与蒸馏
- 推理加速(vLLM/TGI/llama.cpp)
- 并发优化(KV Cache/PagedAttention)
第六章:实战项目
- 智能问答系统(RAG)
- 文本分类与情感分析
- Agent系统(ReAct/Tool Calling)
- 多模态应用(图生文/文生图)
学习路线
Python基础 + NumPy/Pandas
机器学习算法(sklearn)
第3-4周: 深度学习(PyTorch/TensorFlow)
第5-6周: Transformer + 大模型原理
RAG系统开发
模型部署与优化
面试准备清单
- [ ] 理解反向传播算法原理
- [ ] 掌握Self-Attention机制
- [ ] 能够解释Transformer vs RNN的区别
- [ ] 熟悉LoRA微调原理
- [ ] 了解大模型幻觉及解决方案
- [ ] 能够搭建基础RAG系统
- [ ] 掌握至少一种模型量化方法
- [ ] 熟悉vLLM/Ollama等部署工具
推荐资源
- 课程:吴恩达机器学习、李宏毅机器学习、FastAI
- 论文:Attention Is All You Need、BERT、GPT-3、LoRA
- 框架:PyTorch、Transformers、LangChain、LlamaIndex
- 实践:Kaggle、HuggingFace、Colab
- 社区:HuggingFace Forums、Reddit r/MachineLearning