• 最新文章
  • 最新资讯
  • 大模型
  • AIGC
  • HPC存储
  • 云计算
  • 系统运维
  • 网站建设优化
  • 操作系统
  • 大数据
  • 服务器管理

MCP实战分享:使用Playwright MCP+Claude进行高效数据采集

Post Views: 16 如何选择最适合自己的MCP资源库? 面对这么多资源,如何选择最适合自己的呢?我根据实际经验给出以下建议: 根据技术水平选择: 零基础用户:推荐Fleur(Mac用户)或mcp.run(Web用户) 入门级开发者:Smithery.ai或Aimcp.info(中文用户)是理想选择 专业开发者:MCP官方仓库和MCP-Toolkit提供更多技术深度 根据使用场景选择: C
MCP实战分享:使用Playwright MCP+Claude进行高效数据采集

必须要收藏的mcp server资源网站

Post Views: 13 昨天,连奥特曼也宣布,chatGPT也开始支持mcp了。可以预测,mcp并非昙花一现,而是下一代大模型对接的通用协议。 今天就推荐几个mcp 不错的网站吧,有兴趣的赶紧收藏起来吧! pulsemcp 网站介绍:这个可是属于最活跃的社区资源平台了,其中社区上传的服务就有2966条server,依靠社区强大的能力,一些小众好用的mcp资源都可以在这里找到。 目前网站已经收
必须要收藏的mcp server资源网站

构建 MCP 服务器:第 4 部分 — 创建工具

Post Views: 17 这是我们构建 MCP 服务器的四部分教程的最后一部分。在第一部分中,我们使用基本资源创建了第一个 MCP 服务器。第二部分添加了资源模板并改进了代码组织。在第三部分中,我们添加了提示符并进一步完善了服务器结构。现在,我们将通过添加工具来完成服务器的搭建。 什么是 MCP 工具? 工具是 LLM 可以调用来执行操作或检索动态信息的可执行函数。与只读的资源和构建 LLM
构建 MCP 服务器:第 4 部分 — 创建工具

构建 MCP 服务器:第 3 部分 — 添加提示

Post Views: 19 这是我们构建 MCP 服务器的四部分教程的第三部分。在第一部分中,我们使用基本资源创建了第一个MCP 服务器;在第二部分中,我们添加了资源模板并改进了代码组织。现在,我们将进一步重构代码并添加提示功能。 什么是 MCP 提示? MCP 中的提示符是服务器提供的结构化模板,用于标准化与语言模型的交互。与提供数据的资源或执行操作的工具不同,提示符定义了可重用的消息序列和工
构建 MCP 服务器:第 3 部分 — 添加提示

构建 MCP 服务器:第 2 部分 — 使用资源模板扩展资源

Post Views: 22 该图像是使用 AI 图像创建程序创建的。 这个故事是在多位人工智能助手的帮助下写成的。 这是构建MCP 服务器教程(共四部分)的第二部分。在第一部分中,我们使用基本资源创建了第一个 MCP 服务器。现在,我们将使用资源模板扩展服务器的功能。本文中的代码假设您从上次中断的地方继续学习。 什么是资源模板? 资源模板允许您使用 URI 模式定义动态资源。与具有固定 URI
构建 MCP 服务器:第 2 部分 — 使用资源模板扩展资源

构建 MCP 服务器:第一部分 — 资源入门

Post Views: 25 什么是模型上下文协议? 模型上下文协议(MCP) 是Claude等大型语言模型 (LLM) 与外部数据和功能安全交互的标准化方式。您可以将其想象成一个平视显示器,或者 AI 的 USB 端口——它提供了一个通用接口,允许任何兼容 MCP 的 LLM 连接到您的数据和工具。 MCP 提供了一个集中式协议,简化了 AI 即插即用服务的开发。与其他可能需要为每个 AI 模型
构建 MCP 服务器:第一部分 — 资源入门

必须要理解的MCP(大模型上下文协议)

Post Views: 19 一、什么是MCP(Model Context Protocol) 定义 MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大模型与外部数据源和工具之间的通信协议。MCP 的主要目的在于解决当前 AI 模型因数据孤岛限制而无法充分发挥潜力的难题,MCP 使得 AI 应用能够安
必须要理解的MCP(大模型上下文协议)

nic_monitor-全面监控以太网、IB、RoCE网络流量的工具

Post Views: 51 本文提供三个工具,1. nic_monitor 使用脚本语言 Bash Shell 编写的,用来监控以太网或者RDMA接口流量使用的。 2. nic_monitor_v2.0_eth.py 通过TUI界面实时显示以太网流量的工具,使用Python3编写的。3. nic_monitor_v2.1_rdma.py 通过TUI界面实时显示 IB 和 RoCE 流量的工具,使
nic_monitor-全面监控以太网、IB、RoCE网络流量的工具

大模型核心概念科普:Token、上下文长度、最大输出,一次讲透

Post Views: 961 Token 是什么 token 是大模型(LLM)用来表示自然语言文本的基本单位,可以直观的理解为 “字” 或 “词”。 通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token 一般情况下模型中 token 和字数的换算比例大致如下: 1 个英文字符 ≈ 0.3 个 token。 1 个中文字符 ≈ 0.6 个 token。 所以,我
大模型核心概念科普:Token、上下文长度、最大输出,一次讲透

vllm serve的参数大全及其解释

Post Views: 876 以下是 vllm serve 的常见参数说明以及它们的作用: 1. 基本参数 model_tag 说明:用于指定要加载的模型,可以是 Hugging Face 模型仓库中的模型名称,也可以是本地路径。 示例: vllm serve "gpt-neo-2.7B" --config CONFIG 说明:允许从 YAML 配置文件加载参数。适合复杂配置。 示例: vllm
vllm serve的参数大全及其解释