AIGC大模型應用實踐
發布日期:
2024/4/25 15:24:19
課程大綱
第一部分:生成式人工智能和大語言模型技術概覽
一、AIGC的概念和技術體系
1.生成式人工智能(AIGC)體系概述
2.大語言模型技術(LLM)工作原理
3.LLM 生態體系
4.OpenAI 及其相關模型介紹
二、提示工程
1.什么是提示工程
2.構建提示的方法
3.優化提示技巧改善LLM輸出質量
4.提示工程思維和提示工程最佳實踐
三、實現AIGC開發環境
1.獲取并使用LLM API Key
2.構建開發環境使用Python代碼實現流式自動對話
3.快速創建Chat Bot,練習提示詞
第二部分:使用 LangChain 開發AIGC應用
一、LangChain的基本概念和環境準備
1.大語言模型的概念
2.LangChain的概念和組件
3.安裝LangChain環境
4.使用LangChain調用LLM API
二、模型的調用、提示工程和輸出解析
1.模型I/O
2.提示工程
3.輸出解析
三、Chain:串聯不同的組件
1.Chain的概念
2.LLMChain
3.Sequential Chain
4.RouterChain
四、Memory:保存對話上下文
1.Memory 概述
2.ConversationChain
3.ConversationBufferMemory(緩沖記憶)
4.ConversationBufferWindowMemory
5.ConversationSummaryMemory
6.ConversationSummaryBufferMemory
五、Agent:代理
1.Agent概念和體系
2.React框架
3.結構化工具對話代理
4.自主詢問搜索代理
5.計劃與執行代理
六、LangChain高級應用
1.工具和工具箱
2.實現檢索增強生成RAG
3.連接數據庫
4.回調函數實現異步通信機制
5.CAMEL:實現角色扮演
6.實現自治代理
七、綜合演練:構建客服Chatbot
1.技術架構
2.實現步驟
3.實現基本聊天
4.實現記憶功能
5.整合文檔庫具備檢索機制
6.使用Gradio/StreamLit框架部署Chatbot
八、項目實戰:開發知識庫問答系統
1.項目需求
2.技術框架
3.核心實現機制
4.核心代碼分析
5.功能實現
第三部分:實現自主可控的AIGC應用開發底座 (1D)
一、搭建API Gateway
1.AIGC 開發底座工具鏈介紹
2.LLM API 調用方法和策略綜述
3.使用One-API項目部署API Geateway
4.管理API渠道和令牌
5.API 調用的監控以及用戶管理
二、實現LLM模型本地運行
1.使用LM Studio實現開源大模型的本地運行
2.開源大語言模型和本地開發環境的對接
3.測試和評估LLaMa模型
4.測試和評估Mixtrel MoE模型
5.使用Phi 2實現本地平替Github Copilot解決方案
6.實現嵌入式模型的本地運行
三、構建低代碼無代碼AIGC應用開發平臺
1.部署Flowise
2.快速實現基本會話機器人
3.實現整合Web瀏覽插件的會話機器人
4.實現領域知識庫(Embedding & 向量檢索引擎)
5.實現智能體
四、AIGC 應用的部署
1.應用容器化部署介紹
2.借助Vercel實現應用的PaaS化部署
3.部署ChatGPT Web
4.快速上線自定義LLM應用
課程周期
24課時(45分鐘/課時)
無標題文檔