Dify:一站式 AI 应用平台 - 基本应用与知识库 Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。 在开始之前 此指引写作时使用 Dify v 2025-03-27
Firecrawl 快速部署指引 Firecrawl 是一个易于使用的网站内容爬取工具,也就是常规意义上的爬虫。不同的是 Firecrawl 在数据清洗环节为 AI 应用做了优化,能够将网站较好的转换为 Markdown 格式,同时又不至于让 Firecrawl 的使用过于复杂。 当然这里介绍 Firecrawl 的一大重要原因是 2025-03-25 #Docker Apps#Dify
LocalAI 部署完全指引 Ollama 很好用,但是它只能用来跑 LLM 和 Embedding,但其实还有一类比较重要的模型是 Reranker,以及多模态模型的视觉和音频支持,这些 Ollama 都没法运行。本文则介绍一个能够运行上述模型的工具:LocalAI。 在开始之前 对于 LocalAI 此处不做过多介绍,它是一 2025-03-13 #AI#Docker Apps
Nvidia 显卡 Docker 配置指引 太太太难了,到处都是墙......这篇指引把上上一篇文章里关于如何在 Docker 中调用 Nvidia 显卡的部分特地摘出来讲一下,以及讲解如果遇到网络问题该如何解决。 在开始之前 本文旨在指引你如何在网络封锁的情况下在 Ubuntu Server 中安装和配置 Nvidia 显卡工具链以及怎样让 2025-03-13 #Docker#Linux
OpenWebUI 部署完全指引 上一篇文章讲了 Ollama 的部署相关事宜。可能会有人注意到当时 1Panel 中内嵌了一个 OpenWebUI 的支持,但我并没有讲解它,反而是用了部署更为复杂的 Dify 作为了连接使用例。原因是在当时测试时,OpenWebUI 总是会因为不明原因卡死很长时间,今天有空搞搞明白了,所以这次来讲 2025-03-06 #AI#Docker Apps
Ollama 部署完全指引 工欲善其事,必先利其器。在继续讲 Dify 之前,先插个小短篇讲讲怎么在 Docker 上安装并部署 Ollama 吧。 在开始之前 本教程将会使用的安装环境: Ubuntu Server 24 @ CPU 3.3Ghz x 4 / RAM 12GiB RTX 3050 Mobile / 4G Do 2025-03-05 #AI#Docker Apps
Dify:一站式 AI 应用平台 - 部署与配置 此指引已更新至 Dify v1.x Dify 更新了 v1.x 版本,故此教程也跟随 v1.x 进行一次更新吧,主体内容跟 v0.x 基本一致,但是本文将会介绍部分 v1.x 专有内容。 在开始之前 Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as 2025-02-20 Dify AI 应用平台 #Docker Apps#AI#Dify
如何使用 Grafana 监控系统性能指标 - Part 2 在系列文章的 Part 1 中,对于如何部署和配置 Grafana & Prometheus 进行性能指标数据的收集和可视化进行了“简单”介绍,不过实际写出来才发现这个东西不是一般的复杂。本文则着重介绍系统的第二大重点即如何将 Part 1 中收集到的数据,通过 Grafana 进行可视化处理。 G 2025-02-18 Prometheus 性能指标监控系统 #Docker Apps
如何使用 Grafana 监控系统性能指标 - Part 1 服务器太多了?想要知道某个服务是不是分配的资源不够了?每天都在担心是不是自己的 AIO 是不是 All in BOOM 了? 别担心,本篇教程将为你介绍一种更加复杂但是监控指标全面、可自定义程度极高的性能指标监控系统:Prometheus,根据你的配置它可以实现监控系统的各方面综合数据如CPU、内存 2025-02-14 Prometheus 性能指标监控系统 #Docker Apps
LM Studio 部署 Deepseek 及 API 服务的使用 最近每天像追剧一样刷我一直在用的 AI 开发平台 Dify 有没有更新 Deepseek 的支持,然后终于在 Dify 0.15.2 它支持了 Deekseek。但是等我更新上去之后发现它还在第三方里支持了 LM Studio,也好反正最近 Deepseek 的 API 全红,访问全部超时,先自己部 2025-02-06 #AI