Transformers

qian-lei ... 2022-01-13 预训练模型
  • 预训练模型
小于 1 分钟 约 235 字

# 说明

🤗 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨让最先进的 NLP 技术人人易用。

🤗 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时,每个定义的 Python 模块均完全独立,方便修改和快速研究实验。

🤗 Transformers 支持三个最热门的深度学习库: Jax, PyTorch and TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。

# github地址

https://github.com/huggingface/transformers (opens new window)

# 项目测试

动漫头像转换https://huggingface.co/spaces/akhaliq/AnimeGANv2 (opens new window),网站国内访问可能存在问题