1.理解智能助手的核心系统架构与功能模块(对话交互层、核心引擎层、工具集成层),掌握 “用户输入 - 意图识别 - 响应生成” 的完整工作流程。
2.学会两种智能助手搭建方案的实现:一是调用公开大模型 API(如 OpenAI API)实现云端交互,二是本地部署 Ollama 大模型(如 Llama 3)结合 Streamlit 构建私有化对话界面。
3.掌握 Streamlit 库的使用方法,实现可视化对话界面(含历史消息展示、输入框、模型切换功能),理解前端界面与后端逻辑的数据流转机制。
4.掌握智能助手核心功能(基础问答、任务处理)的集成方法,能通过测试案例验证交互效果,优化响应速度(如设置超时控制)与准确率(如添加意图纠错)。
培养系统设计与问题排查能力,能分析不同搭建方案的优缺点(如云端 API 的便捷性 vs 本地部署的隐私性),并根据需求选择合适方案。
1.实验前需掌握 Python 基础语法、HTTP 请求原理(调用 API)、虚拟环境配置,预习 Streamlit 界面开发、Ollama 部署流程及大模型 API 调用规范(如 API 密钥配置、请求参数设置)。
2.基础方案(云端 API)要求:
(1)选择任一公开大模型 API(如 OpenAI GPT-3.5/4、字节跳动 Doubao API),完成 API 密钥申请与配置;
(2)实现 “用户输入→API 请求→响应解析→界面展示” 的端到端流程,支持历史对话上下文管理(如存储最近 10 条消息)。
3.高阶方案(本地部署)要求:
(1)在本地计算机部署 Ollama,下载至少一个开源大模型(如 Llama 3 8B、Qwen 7B);
(2)通过 Ollama Python SDK 调用本地模型,实现与 Streamlit 界面的集成,支持模型切换(如 Llama 3/Phi-2)。
4.功能与交互要求:
(1)界面需包含 “对话历史区”(区分用户 / 助手消息,如用户消息右对齐、助手消息左对齐)、“输入区”(支持多行输入)、“控制区”(模型选择、清空对话按钮);
(2)核心功能需覆盖 “基础问答”(如 “解释牛顿第二定律”)、“简单任务处理”(如 “生成明日工作计划”),支持响应超时处理(如 10 秒无响应提示 “请求超时”)。
5.测试与报告要求:
(1)完成至少 5 组测试案例(含正常问答、长文本生成、上下文关联、超时场景、模型切换),记录响应时间与准确率;
(2)报告需包含两种方案的代码实现、界面截图、测试对比,分析方案优缺点,回答思考题。