PHP如何接入寒武纪思元AI_发张量数据调推理接口得结果【巧法】

PHP无法直接调用寒武纪底层库,必须通过proc_open启动Python子进程进行推理,PHP仅负责传参和取结果,所有MLU操作严格限定在Python进程中。

php如何接入寒武纪思元ai_发张量数据调推理接口得结果【巧法】

寒武纪思元 SDK 不支持 PHP 直接调用

寒武纪官方提供的 cnrtcnnlmagicmind 等底层库,以及配套的 Python SDK(如 cnmlmagicmind_python),均未发布 PHP 绑定或扩展。PHP 无法像 Python 那样直接加载 .so 模块、调用 CNRT API 或构建 MagicMind 模型会话。

必须走进程间通信:用 Python 子进程跑推理,PHP 负责传参和取结果

这是目前最可行、上线风险最低的方式。PHP 通过 proc_open 启动一个隔离的 Python 进程,把张量数据以文件或标准输入方式传入,Python 脚本完成 MagicMind 模型加载、cnrt.exec 推理、结果序列化后输出,PHP 再解析返回值。

关键点:

  • 张量数据需提前序列化为 NumPy 格式(.npy)或 JSON(仅限小尺寸、低精度数据);PHP 用 file_put_contents 写入临时文件,Python 用 np.load() 读取
  • 避免在 PHP 中尝试用 exec("python -c 'import cnrt'") —— 极大概率报 ImportError: libcnrt.so: cannot open shared object file,因为环境变量(如 LD_LIBRARY_PATH)未透传
  • Python 子进程必须显式设置环境:
    putenv("LD_LIBRARY_PATH=/opt/cambricon/mlu-cnnl/lib64:/opt/cambricon/magicmind/lib64:$LD_LIBRARY_PATH");
  • 模型文件(.mm)、权重、预处理脚本必须由 Python 进程独占访问,不要让多个 PHP 请求并发抢同一个模型会话

Python 侧推理脚本要屏蔽交互逻辑,只做“输入→推理→输出”单次流

不能写成交互式 REPL 或带 while 循环的服务模式;PHP 每次请求都新建进程,脚本必须秒级退出。否则会积压僵尸进程、耗尽 MLU 显存。

立即学习PHP免费学习笔记(深入)”;

LangChain

LangChain

一个开源框架,用于构建基于大型语言模型(LLM)的应用程序。

下载

示例最小可行脚本 run_infer.py

#!/usr/bin/env python3
import sys
import numpy as np
import magicmind.python.runtime as mm

def main(): if len(sys.argv) != 3: print("Usage: python run_infer.py model.mm input.npy") sys.exit(1) model_path, input_path = sys.argv[1], sys.argv[2]

# 加载模型(注意:不复用,每次新建)
device = mm.Device()
device.id = 0
engine = mm.Runtime.create_by_model(model_path)
engine.set_device(device)

# 加载输入张量
input_data = np.load(input_path).astype(np.float32)

# 执行推理
output = engine.execute([input_data])

# 输出为 JSON 行(方便 PHP json_decode)
import json
print(json.dumps({"output": output[0].tolist()}))

if name == "main":
main()

PHP 调用时确保路径可读、权限正确,并加超时控制:

$descriptorspec = [STDIN, STDOUT, STDERR];
$process = proc_open('python3 /path/to/run_infer.py /model/model.mm /tmp/input_'.uniqid().'.npy', $descriptorspec, $pipes);
if (is_resource($process)) {
    stream_set_timeout($pipes[1], 30); // 防卡死
    $result = stream_get_contents($pipes[1]);
    fclose($pipes[1]); proc_close($process);
    $data = json_decode($result, true);
}

别碰“PHP 扩展开发”或“FFI 调用 CNRT”的念头

有人查到 PHP 8.0+ 支持 FFI,试图 FFI::cdef(..., "libcnrt.so") —— 实际会失败,因为 CNRT 是 C++ ABI,含 name mangling、异常对象、std::vector 等 PHP FFI 完全不兼容的结构;且 MagicMind 的 runtime 初始化依赖全局静态对象,PHP 多线程/多进程模型下极易 crash。

真正省事的边界就一条:PHP 只管调度、准备数据、收结果;所有 MLU 相关操作锁死在 Python 进程内。模型热更新、batch 推理、显存复用这些优化,全放在 Python 层做,PHP 层保持无状态。

https://www.php.cn/faq/1984161.html

发表回复

Your email address will not be published. Required fields are marked *