🤖 模型发布
发布日期:2024-04-23
来源:Microsoft 官方博客
微软正式推出 Phi-3-mini、Phi-3-small、Phi-3-medium 三款轻量语言模型,主打高性价比与端侧部署能力。Phi 系列沿用“小数据 + 合成数据”训练策略,在保持模型体积的同时实现更强的推理与工具调用表现。
模型参数
- · Phi-3-mini:3.8B 参数,提供 4K 与 128K 两个上下文长度版本。
- · Phi-3-small:7B 参数,支持更复杂的推理与代码生成任务。
- · Phi-3-medium:14B 参数,可在 GPU 集群上快速部署。
生态支持
- · Azure AI Foundry、Azure AI Studio 与 GitHub Models 同步上线。
- · Hugging Face、Ollama、NVIDIA NIM 提供推理容器与示例项目。
- · Microsoft Teams、Copilot Studio 提供内置集成模版与参考工作流。
微软强调 Phi-3 面向“边缘智能”场景,适合在移动端设备、物联网终端与企业私有云部署。结合 Azure 提供的安全隔离与监控工具,企业可以构建符合合规要求的 AI 助手与业务自动化流程。
落地建议
- 根据任务复杂度选择合适参数规模,优先测试 mini 版本以评估成本与延迟。
- 利用 Azure AI Studio 的 Prompt Flow 与安全工具对输出进行监控与评估。
- 结合 Teams 与 Copilot Studio 模板,将企业数据流程快速接入 Phi-3。
建议的技术路线
企业可先在 Hugging Face 或 Azure AI Foundry 中对 Phi-3-mini 进行离线评估,再结合 Azure Kubernetes Service 或本地 GPU 集群部署生产环境版本,确保数据隔离与安全合规。