WordPress 7.0 引入了一个内置的 AI Client——一个与提供商无关的 PHP3 API,让插件可以将 prompt 发送给 AI 模型并通过统一接口接收结果。插件只需描述自己需要什么,WordPress 负责将请求路由到网站管理员配置的 AI 提供商。
这意味着插件开发者不再需要自己集成 OpenAI、Anthropic 或 Google 的 API。你只需要调用 WordPress 提供的标准接口,站点管理员在后台的 Settings > Connectors 页面配置好 API 密钥和偏好模型即可。
基本用法
所有交互都从一个入口函数开始:
$text = wp_ai_client_prompt( '总结 WordPress 缓存的好处。' )
->using_temperature( 0.7 )
->generate_text();
API 采用流畅的链式调用风格。你可以设置温度参数、指定输出格式、传递 JSON2 schema 来获取结构化数据。如果需要更丰富的元数据(比如 token 用量、提供商信息),可以使用 generate_text_result()、generate_image_result() 等方法,它们返回一个 GenerativeAiResult 对象,包含 token 用量、提供商和模型的详细信息。
支持的生成类型
AI Client 不限于文本生成。它原生支持多种模态:文本生成(generate_text)、图片生成(generate_image)、文本转语音(convert_text_to_speech)、语音生成(generate_speech)以及视频生成(generate_video)。每种模态都有对应的 generate_*_result() 方法返回带元数据的完整结果。
值得注意的是,GenerativeAiResult 对象是可序列化的,可以直接传递给 rest_ensure_response(),这意味着你可以轻松地通过 REST API1 暴露 AI 功能。
模型偏好与提供商配置
每个站点可用的模型取决于管理员在 Connectors 页面配置了哪些 AI 提供商。插件可以通过模型偏好来表达自己的需求:指定功能需求(如”需要支持文本生成”)、设置上下文窗口大小、或者建议特定的模型类别。WordPress 会根据这些偏好自动选择最合适的提供商和模型。
对中文开发者意味着什么
这是 WordPress Core 第一次提供标准化的 AI 能力接口。对中文插件开发者来说,这意味着几件事:
第一,降低门槛。不需要深入研究各个 AI 提供商的 API 差异,一套代码就能适配所有提供商。
第二,用户自主权。最终用户可以选择自己信任的 AI 提供商,而不是被插件锁定在某一个服务上。对于关注数据主权的中国用户来说,这一点尤为重要。
第三,生态统一。当所有插件都通过同一个 AI Client 接口工作时,用户体验会更一致,API 密钥管理也更简单。
原文作者 Felix Arntz 是 WordPress Core 的关键贡献者,文章中包含大量代码示例。如果你是插件开发者,建议阅读原文获取完整的技术细节。



发表回复