Python预训练视觉和大语言模型——精彩试读
基础模型永久改变了机器学习。从BERT到ChatGPT,从CLIP到Stable Diffusion,当数十亿个参数、大数据集与成百上千个GPU相结合时,结果刷新了纪录。《Python预训练视觉和大语言模型》呈现的真知灼见和示例代码将帮你在AWS和Amazon SageMaker上从头开始预训练和优化基础模型,并将它们应用到整个组织的数百个用例中。
《Python预训练视觉和大语言模型》由经验丰富的AWS和机器学习专家Emily Webber撰写,涵盖的内容十分广泛,包括构思项目,准备数据集,训练、评估和部署大型语言、视觉及多模态模型。本书循序渐进地讲述基本概念并列举实例,指导你预训练和准备数据集及模型,配置环境,并训练、微调、评估、部署和优化基础模型。
学习本书后,你将能按照缩放法则在多个GPU上分布模型和数据集,消除偏差,实现高吞吐量以及构建部署管道。最后,你将完全有能力开发个人项目,对基础模型进行预训练和微调。