比如向llm提问类似于 我的... 在mcp服务中目前不知道怎么获取“我”的userinfo,可能还需要进一步提问回答 如果能在tool call中添加authentication 在mcp中能够获取到用户信息就能直接查询

Comment From: jingbio

正常请求中都包含用户token,这应该在prompt中定义好规则。并很好的定义mcp的功能

Comment From: ai-srcflow

client端塞到toolcontext 里边 然后在tool端获取强转就行了

Comment From: Yan-Glim

client端塞到toolcontext 里边 然后在tool端获取强转就行了

我以为tool call中请求头中能够携带authentication,然后直接在tool端中获取。不知道我理解是不是有问题 我之前觉得把authentication塞到context可能导致hallucinations。

Comment From: ai-srcflow

client端塞到toolcontext 里边 然后在tool端获取强转就行了

我以为tool call中请求头中能够携带authentication,然后直接在tool端中获取。不知道我理解是不是有问题 我之前觉得把authentication塞到context可能导致hallucinations。

你的担心是有道理的 ,但是实际上使用的时候, 不会导致幻觉的 toolcontext作为tool工具端的上下文传输只做一些权限校验的话是没有问题的, 最小化暴露原则不影响实际效果的。

Comment From: luojinggit

client端塞到toolcontext 里边 然后在tool端获取强转就行了

请问下我为啥报错 Tool context is not supported!

Comment From: ufohjl

正好借题问一下,为什么访问不到

Image

Comment From: wsldl123292

Image

Comment From: ai-srcflow

Image我现在绑定了 tool端的参数信息作为token端接受 也就是通过提示词注入client的context,然后调用传参解析 中转了下 就可以拿到。

Comment From: luojinggit

Image我现在绑定了 tool端的参数信息作为token端接受 也就是通过提示词注入client的context,然后调用传参解析 中转了下 就可以拿到。

你client调用tools走的sse吗,mcp sse 下不支持toolContext调用

Comment From: ai-srcflow

Image我现在绑定了 tool端的参数信息作为token端接受 也就是通过提示词注入client的context,然后调用传参解析 中转了下 就可以拿到。

你client调用tools走的sse吗,mcp sse 下不支持toolContext调用

提示词注入作为参数传递 平替toolcontext方案 效果是一样的 暂时只能这么高 源码是不是支持的

Comment From: luojinggit

Image我现在绑定了 tool端的参数信息作为token端接受 也就是通过提示词注入client的context,然后调用传参解析 中转了下 就可以拿到。

你client调用tools走的sse吗,mcp sse 下不支持toolContext调用

提示词注入作为参数传递 平替toolcontext方案 效果是一样的 暂时只能这么高 源码是不是支持的

这样是可以的,就是有点污染提示词,有些长参数会导致提示词过长,导致模型处理变慢

Comment From: ai-srcflow

Image我现在绑定了 tool端的参数信息作为token端接受 也就是通过提示词注入client的context,然后调用传参解析 中转了下 就可以拿到。

你client调用tools走的sse吗,mcp sse 下不支持toolContext调用

提示词注入作为参数传递 平替toolcontext方案 效果是一样的 暂时只能这么高 源码是不是支持的

这样是可以的,就是有点污染提示词,有些长参数会导致提示词过长,导致模型处理变慢

对的 不过提示词模板的话还好,当个常驻的变量参数, 不过还要注意传参的加密性 虽然透传 但也不能是明文。 效果还行 无非就当个额外的字符串了。