在Django的模型方法里,get和filter都可以获取单一数据对象。 在数据正常存在的情况下,下面两种方式都可以查询数据。 使用get()方法和使用filter()方法然后通过[0]的方式分片 same_name_user = models.User.objects.filter(name=username) same_name_user = …
下面的步骤记录了,如何将本地的项目代码推送到一个新的github仓库 本地代码没有仓库 本地代码没有关联仓库,要放到新的仓库上的场景 echo "# xxx" >> README.md git init git add README.md git commit -m "first commit" …
这里记录下学习vue3的过程中的关键知识点和自己之前不懂的知识点 计算属性 通过vue3的computed()API可以创建一个计算属性 ref,这个 ref 会动态地根据其他响应式数据源来计算其 .value <script setup> import { ref, computed } from 'vue' le…
今天在kaggle上跑模型的时候发现,模型还没开始跑就已经占用了11G的显存。这时候就需要清除一下系统中缓存的显存占用。 显存 我们先来查看一下系统显存占用情况: import torch def get_gpu_memory(): gpu_memory = torch.cuda.memory_allocated() / 1024 / 1024 /…
当使用 Hugging Face 上的 dirtycomputer/weibo_senti_100k 数据集时,我们发现该数据集只包含了训练集,并没有提供测试集和验证集。因此,在使用该数据集进行模型训练和评估时,我们需要自行将训练集的一部分数据拆分出来作为测试集和验证集。 下面的代码演示了如何实现这个功能。首先,我们加载数据集并将其划分为训练集、测…
当我们使用Hugging Face上的数据集时,有时候需要将数据集按照训练集、测试集、验证集的类别分别处理并写入不同的文件中,以便于我们在训练模型时能更好的处理数据。 下面这个方法就能很好的处理这个需求。 # 此方法适用于将huggingface的dataset类型的数据集写入jsonl格式的文件 # texts dataset['tra…
通过 如何用TRL微调大模型(LLMs) 和 微调 FLAN-T5 以实现聊天和对话摘要 两篇文章的学习,我们已经知道了如何通过Hugging Face来微调大模型。这篇文章,我们来实现微调FLAN-T5的情感分析任务。 环境配置和之前一样,我们之间从加载处理数据集开始。 加载并处理数据集 我们使用 t1annnnn/Chinese_sentime…
最近在使用kaggle的notebook跑模型的时候发现常规的notebook_login()方法竟然无效。而且用命令行模式的 huggingface-cli login 也没有反应。最后找到了神奇的解决办法。 就是在代码前加一行注释Σ(⊙▽⊙"a # I was having the same issue in Jupyter and …
在本文中,您将学习如何使Hugging Face Transformers微调 google/flan-t5-xl 的聊天和对话摘要。如果您已经了解 T5,那么 FLAN-T5 在所有方面都更胜一筹。在参数数量相同的情况下,这些模型已在 1000 多个额外任务中进行了微调,涵盖更多语言。 在本示例中,我们将使用 samsum 数据集,该数据集收…
截止到2024年,大模型已经有了飞速发展。ChatGPT的面世,催生了一系列的大模型,包括Meta的Llama 2、Mistrals Mistral & Mixtral 模型、TII Falcon和Google的Flan-T5等等。这些大模型可以运用于很多的任务。例如,聊天机器人、Q&A问答、摘要总结等等。然而,如果你想要定制一…