分类: learn

25 篇文章

thumbnail
清除cuda显存
今天在kaggle上跑模型的时候发现,模型还没开始跑就已经占用了11G的显存。这时候就需要清除一下系统中缓存的显存占用。 显存 我们先来查看一下系统显存占用情况: import torch def get_gpu_memory(): gpu_memory = torch.cuda.memory_allocated() / 1024 / 1024 /…
thumbnail
处理Hugging Face上weibo_senti_100k数据集
当使用 Hugging Face 上的 dirtycomputer/weibo_senti_100k 数据集时,我们发现该数据集只包含了训练集,并没有提供测试集和验证集。因此,在使用该数据集进行模型训练和评估时,我们需要自行将训练集的一部分数据拆分出来作为测试集和验证集。 下面的代码演示了如何实现这个功能。首先,我们加载数据集并将其划分为训练集、测…
thumbnail
处理Hugging Face上的数据集
当我们使用Hugging Face上的数据集时,有时候需要将数据集按照训练集、测试集、验证集的类别分别处理并写入不同的文件中,以便于我们在训练模型时能更好的处理数据。 下面这个方法就能很好的处理这个需求。 # 此方法适用于将huggingface的dataset类型的数据集写入jsonl格式的文件 # texts dataset['tra…
thumbnail
微调FLAN-T5以实现情感分析任务
通过 如何用TRL微调大模型(LLMs) 和 微调 FLAN-T5 以实现聊天和对话摘要 两篇文章的学习,我们已经知道了如何通过Hugging Face来微调大模型。这篇文章,我们来实现微调FLAN-T5的情感分析任务。 环境配置和之前一样,我们之间从加载处理数据集开始。 加载并处理数据集 我们使用 t1annnnn/Chinese_sentime…
thumbnail
huggingface登录方法notebook_login()失效
最近在使用kaggle的notebook跑模型的时候发现常规的notebook_login()方法竟然无效。而且用命令行模式的 huggingface-cli login 也没有反应。最后找到了神奇的解决办法。 就是在代码前加一行注释Σ(⊙▽⊙"a # I was having the same issue in Jupyter and …
thumbnail
微调 FLAN-T5 以实现聊天和对话摘要
在本文中,您将学习如何使Hugging Face Transformers微调 google/flan-t5-xl 的聊天和对话摘要。如果您已经了解 T5,那么 FLAN-T5 在所有方面都更胜一筹。在参数数量相同的情况下,这些模型已在 1000 多个额外任务中进行了微调,涵盖更多语言。 ​ 在本示例中,我们将使用 samsum 数据集,该数据集收…
thumbnail
如何用TRL微调大模型(LLMs)
​ 截止到2024年,大模型已经有了飞速发展。ChatGPT的面世,催生了一系列的大模型,包括Meta的Llama 2、Mistrals Mistral & Mixtral 模型、TII Falcon和Google的Flan-T5等等。这些大模型可以运用于很多的任务。例如,聊天机器人、Q&A问答、摘要总结等等。然而,如果你想要定制一…
thumbnail
计算机网络
[toc] 1 概述 1.1 计算机网络的类别 1.1.1 计算机网络的定义 计算机网络是一些互相链接的、自治的计算机的集合 比较通俗的定义: 计算机网络是指将地理位置不同的具有独立功能的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统,网络管理软件及网络通信协议的管理和协调下,实现资源共享和信息传递的计算机系统。 连通性 、共享 1.…
thumbnail
【软件工程】国考知识点总结
1.UML 参考讲解:UML详细讲解 参考讲解:状态图的基本概念和作用 用例模型中各种类的作用 边界类,用于描述外部参与者与系统之间的交互的类。 控制类,控制其他类; 每个用例通常有一个控制类,控制用例中的事件顺序,控制类也可以在多个用例间共用。 其他类并不向控制类发送很多消息,而是由控制类发出很多消息。 实体类,存储信息和相关行为的类; 实体类保…