来源:AWS Machine Learning Blog 2026-03-10 15:42

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

使用 Amazon 部署 Oumi 自定义
在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

相关文章推荐

返回首页