编辑
2024-11-14
DL论文
00

https://arxiv.org/abs/2201.11903

作者单位:谷歌的研究团队

摘要

我们探讨了如何通过生成一个思维链——一系列中间推理步骤——显著提高大型语言模型执行复杂推理的能力。尤其是,我们展示了在足够大的语言模型中,这种推理能力如何通过一种简单的方法自然地涌现,这种方法称为思维链提示(chain-of-thought prompting),其中提供少量的思维链示例作为提示中的范例。

在三个大型语言模型上的实验表明,思维链提示在一系列算术、常识和符号推理任务上提高了性能。实证收益可能非常显著。例如,仅用八个思维链示例提示一个PaLM 540B模型,就能在数学文字题的GSM8K基准测试中达到最新的准确性,甚至超过了经过微调并带有验证器的GPT-3。

编辑
2024-11-14
DL论文
00

https://arxiv.org/abs/2210.03629

作者单位:

普林斯顿大学计算机科学系 谷歌研究,大脑团队

个人总结

模型回答问题,我们当然期望是由问题直接映射到回答,这需要太多先验数据集训练,在世界上你总能找到问题是没出现在训练集的。这时候就需要一些策略让模型变得聪明一点,而类似CoT,或者本文的ReAct ,就是在试图让大模型变得会思考问题,人思考一个问题有可能会发散,比如问题是"你是人吗",那么人的大脑直接回答"我是人",那如果问题是"腾讯投资的前个公司叫啥名",人就会借助工具开始发散了。

一些复杂问题或者密集问题,人都需要发散思考,然后得到答案,而解决问题的途径,正是这些框架想做的事情。

编辑
2024-11-14
DL论文
00

Android Instruct 数据集,该数据集包含 94.3k 条操作记录,用于细调模型。

A NDROID L AB 基准测试提出了显著的挑战,因为即使是领先的模型 GPT-4o 也只能达到 31.16% 的成功率。

ANDROID L AB 定义了一组动作空间和两种操作模式,形成了 ANDROID L AB 环境。我们采用了前人工作中的主要动作空间,并增加了一个模型返回值(完成动作)。这两种基本的操作模式是 SoM(Yang et al., 2023a)和仅 XML 模式,区别在于代理是否可以访问手机屏幕的快照。

编辑
2024-11-14
工具使用
00

win+R,输入regedit,如图:

image.png

编辑
2024-11-13
深度学习
00

拉:

bash
docker pull ollama/ollama

运行

bash
docker run -d --rm -p 11434:11434 --gpus device=3 \ -v /ssd/xiedong/openwebui-test/ollama:/root/.ollama \ --name ollama ollama/ollama docker run -d --rm -p 11435:11434 --gpus device=2 \ -v /ssd/xiedong/openwebui-test/ollama:/root/.ollama \ --name ollama2 ollama/ollama

进容器:

docker exec -it ollama bash docker exec -it ollama2 bash

退出容器就嘎了,我直接tmux:

bash
apt update && apt install -y tmux

运行模型:

bash
ollama run qwen2.5:72b-instruct ollama run qwen2.5:32b-instruct