概述周末在家用电脑上部署了开源的ragflow,选择这个是考虑它支持ocr自动识别,另外还准备安装的是quivr(号称第二大脑),待安装后再做比较。什么是RAG概念:RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了信息检索与生成模型的技术,用于提升自然语言处理任务的性能,特别是在问答、内容生成等领域。过程:大语言模型(LLM, Large Language Model):大语言模型是通过大规模数据训练而成的深度神经网络模型,如 GPT-4。它们可以生成自然语言文本,并具备广泛的语言理解能力。检索(Retrieval):在 RAG 中,检索指的是从外部知识库中找到与输入查询相关的信息或文档。这个步骤的目的是弥补大语言模型在生成过程中的知识盲点,尤其是当涉及到事实性问题时。生成(Generation):在获得检索到的相关信息后,模型会基于这些信息生成答案或文本。这一过程利用了大语言模型的强大生成能力,同时避免了仅依赖模型本身知识库的局限性。工作流程:输入查询:用户提供一个查询或问题。检索阶段:系统会从预先构建的知识库中检索与该查询最相关的文本
一个非常标准的计算公式,了解 LLM 和 GPU VRAM 换算规则,下次发新模型就知道本机能不能跑了。
说明本文根据《# A Hands-on Guide to Build Your First Convolutional Neural Network Model》翻译整理。 概述本文将简要讨论 CNN,这是一种专门为图像相关任务设计的神经网络的特殊变体。本文将主要围绕CNN的实施部分进行介绍。我们已尽最大努力使本文具有交互性和简单性。希望你喜欢它。祝您学习愉快!! 介绍卷积神经网络由 Yann LeCun 和 Yoshua Bengio 于 1995 年引入,后来被证明在图像领域显示出卓越的结果。那么,与普通神经网络相比,当应用于图像域时,是什么让它们与众不同呢?我将用一个简单的例子来解释其中一个原因。考虑到您的任务是对手写数字的图像进行分类,下面给出了一些来自训练集的样本。如果你正确地观察,你会发现所有的数字都出现在各自图像的中心。如果测试图像是相似的类型,则使用这些图像训练普通神经网络模型可能会产生良好的结果。但是,如果测试图像如下所示,该怎么办? 在这里,数字 9 出现在图像的一角。如果我们使用一个简单的神经网络模型来对这个图像进行分类,我们的模型可能会突然失败。但是,如果将相
背景今天的项目非常简单,就是将刚刚编写的,将obsidian下whisper目录中的音频文件自动转写为markdown的文本内容。代码编写非常简单,按照官网给出的python样例进行简单改写就可以了。但是在nas上安装whisper却遇到了问题,主要就是root、tmp下的空间不足带来的各种报错。环境安装问题1.创建虚拟环境cd /volume1python3 -m venv whisper_envsource whisper_env/bin/activate2. pip3执行中指定目录mkdir -p /volume1/tmp/pip_cacheXDG_CACHE_HOME=/volume1/tmp/pip_cache TMPDIR=/volume1/tmp pip3 install openai-whisper按照这个方式安装终于成功:程序执行问题在开始进行程序执行的时候再次遇到存储空间不足的问题:应该是程序执行中需要下载whisper模型,但是nas中的空间出现不足。采取将whisper用到的目录连接到比较大的空间中的方式。首先,确保目标目录存在mkdir -p /volume1
内容摘要: podsync Docker 服务由于无法自动更新,导致无法获取最新的资讯。经过排查,发现此问题不是个别问题,而是 Google 的封堵导致的。目前暂时将 podsync 停用,等待后续探索替代方案。问题描述podsync 这个 Docker 服务是我非常喜欢的一个应用,每天早上开车上班的路上,使用该服务听取资讯已经成为习惯,但现在却无法顺利获取最新资讯。排查过程经过重启和 github 上查询相关问题,发现此问题并非个别现象。随后,发现 Google 进行了封堵导致的影响。停用暂时将 podsync 停用,等待后续探索替代方案。持续关注 podsync 的更新: 等待 podsync 团队解决该问题,并恢复服务。
摘要今天在obsidian中安装了Smart Connections插件。Smart Connections 是一个为 Obsidian 设计的 AI 驱动的插件,它能够让用户通过 AI 嵌入式技术与笔记进行交互式聊天,并自动发现与当前笔记相关的内容链接,同时支持本地模型和超过 100 种不同的 API 模型,如 Claude、Gemini、ChatGPT 和 Llama 3。使用体验我使用的是llama-3.1-8b-instant模型,可以支撑通常的对话,比较好用的是可以基于我之前发表的文章进行内容总结。例如关于骑行的总结:关于投资的总结自定义服务器如果直接使用openai的api配置比较简单,但是在使用自定义的one api的自建服务的时候总是报错,插件给出的提示信息也非常的简单,检查发现需要按照标准的三段配置方式进行配置按照下面的配置可以正常使用:网络介绍Smart Connections 是一个为个人用户设计的软件,旨在通过 AI 技术增强个人的笔记管理和知识发现能力。该插件支持本地 AI 模型和多种 API 模型,如 Anthropic 的 Claude、Google 的
引言我对自己搭建的基于Obsidian的文档编辑小平台非常满意。得益于Obsidian便捷的写作方式,我可以随时随地记录下想到的事情,不论是在单位、家里,还是在路上。随后,在有时间的时候,我会将这些内容整理完整,通过后台的文件同步实现分类发布。多平台同步 Blog目录:当我将文章放入到Blog目录中后,家中的NAS中的Python程序会自动将文章同步到我的博客空间中。 DayOne目录:将文章放入DayOne目录后,会自动发布到DayOne这款App中,实现内容的私密存储。 Media目录:如果将文章放入Media目录,则可以实现将Markdown文件转换为视频,方便发布到各大平台中。 完美中的不完美然而,令我困扰的一点是,当Markdown文件同步到Typecho博客中后,支持Markdown的编辑器中会充斥着大量的HTML文字,导致无法在网站上进行二次编辑。 问题的解决今天,在给网站安装访问记录器的过程中,我无意中发现了设置中可以配置通过XML-RPC接口提交时保持Markdown格式而不转化为HTML的选项。经过修改,这个问题得到了完美解决,内容变得整洁了许多。 总结无论是个人私
偶然发现自己的博客一旦遇到code代码块就显示的极为不友好,一个大大的白色空白块.尝试用chrome的开发者模式查找错误,修改nginx的配置文件、修改样式表都没有解决。按照chatgpt的建议进行故障排除。。。。。排查Typecho的插件。发现关闭插件ColorHighlight代码高亮后显示正常了
背景接了一个将客服人员与用户的对话内容进行语音转文本,然后进行概要总结的需求。尝试在消费级显卡上进行测试,看看哪一个是可以直接拿来使用而且效果比较好的。本地部署的大模型清单:| NAME | ID | SIZE | MODIFIED | | ----------------------------------------- | ------------ | ------ | ----------- | | llama3:70b | 786f3184aec0 | 39 GB | 12 days ago | | llama3:latest | 365c0bd3c000 | 4.7 GB | 12 days ago | | deepseek-v2:latest | 7c8c332f2df7 | 8.9 GB | 12 days
问题描述按照ollama官网给出的安装方法执行后,提示curl不存在。 按照ubuntu的提示,使用snap方法完成curl的安装。 安装后重新执行ollama的安装程序,提示目录不存在的错误,ollama安装不成功。解决方法不要使用snap来安装curl 写在snap下的curl后,重新安装curl可以通过 apt 安装。这是推荐的方法,因为它是 Ubuntu 上默认的包管理工具。 更新包列表:sudo apt update 安装 curl: sudo apt install curl 验证安装curl --version这将显示已安装的 curl 版本信息,确保 curl 已成功安装。 要修改 PATH 环境变量的优先级,以确保 /usr/bin 中的 curl 被优先使用,可以编辑你的 ~/.bashrc 文件并重新加载环境变量。以下是详细步骤: 编辑 ~/.bashrc 文件: nano ~/.bashrc 在文件末尾添加新的 PATH 设置: 将以下内容添加到文件末尾,以确保 /usr/bin 在 PATH 的前面: export PATH=/usr/bin:/usr/loc
walker
万事随性而为,因好而研,因趣而学,从心所欲。脱离依赖,谋划将来,避免经济之险,迈向希望之光。