标签: llm

4 篇文章

thumbnail
微调FLAN-T5以实现情感分析任务
通过 如何用TRL微调大模型(LLMs) 和 微调 FLAN-T5 以实现聊天和对话摘要 两篇文章的学习,我们已经知道了如何通过Hugging Face来微调大模型。这篇文章,我们来实现微调FLAN-T5的情感分析任务。 环境配置和之前一样,我们之间从加载处理数据集开始。 加载并处理数据集 我们使用 t1annnnn/Chinese_sentime…
thumbnail
huggingface登录方法notebook_login()失效
最近在使用kaggle的notebook跑模型的时候发现常规的notebook_login()方法竟然无效。而且用命令行模式的 huggingface-cli login 也没有反应。最后找到了神奇的解决办法。 就是在代码前加一行注释Σ(⊙▽⊙"a # I was having the same issue in Jupyter and …
thumbnail
微调 FLAN-T5 以实现聊天和对话摘要
在本文中,您将学习如何使Hugging Face Transformers微调 google/flan-t5-xl 的聊天和对话摘要。如果您已经了解 T5,那么 FLAN-T5 在所有方面都更胜一筹。在参数数量相同的情况下,这些模型已在 1000 多个额外任务中进行了微调,涵盖更多语言。 ​ 在本示例中,我们将使用 samsum 数据集,该数据集收…
thumbnail
如何用TRL微调大模型(LLMs)
​ 截止到2024年,大模型已经有了飞速发展。ChatGPT的面世,催生了一系列的大模型,包括Meta的Llama 2、Mistrals Mistral & Mixtral 模型、TII Falcon和Google的Flan-T5等等。这些大模型可以运用于很多的任务。例如,聊天机器人、Q&A问答、摘要总结等等。然而,如果你想要定制一…