机器学习模型的移植、容器化与持续交付
1. 非TPU模型的移植
在实际应用中,你可能会遇到所需的模型存在,但未针对你拥有的TPU设备进行编译的情况。例如Coral Edge TPU有可用的编译器,但由于运行时依赖的问题,并非在所有平台都能安装。若遇到这种情况,就需要创造性地寻找解决方案,并尽可能实现操作的自动化。
1.1 编译器安装环境搭建
编译器文档要求使用Debian或Ubuntu Linux发行版,如果你使用的是苹果电脑且没有运行Linux的其他计算机,可以利用本地安装的容器运行时来创建一个基于Debian的容器,以解决这个问题。
创建一个新的Dockerfile来构建编译器的容器镜像:
FROM debian:stable
RUN apt-get update && apt install -yq curl build-essential gnupg
RUN curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | \
apt-key add -
RUN \
echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | \
tee /etc/apt/sources.list.d/coral-edgetpu.list
RUN apt-get update && apt-get install -yq edgetpu-compiler
CMD ["/bin/bash"
超级会员免费看
订阅专栏 解锁全文
6839

被折叠的 条评论
为什么被折叠?



