Docker Tensorflow-Serving Predictions too large

最近在使用TensorFlow Serving的时候,如果图片较大,会出现如下的报错
“grpc_message”:“Received message larger than max (14830491 vs. 4194304)”

经过查询,是因为grpc 默认只能传输4M的文件,而我们超过的这个阈值,所以要设置这个阈值

MAX_MESSAGE_LENGTH = 429496729   #传输最大设置

class Grpc_Reco():
    '通过GRPC的方式调用方向检测服务'
    def __init__(self):
        channel = grpc.insecure_channel("172.1.0.1:8000",
options=[('grpc.max_send_message_length', MAX_MESSAGE_LENGTH),  #加入options参数
('grpc.max_receive_message_length', MAX_MESSAGE_LENGTH)])        
        # print(channel)
        self.stub = prediction_service_pb2_grpc.PredictionServiceStub(channel)
        self.request = predict_pb2.PredictRequest()
        self.request.model_spec.name = "mymodel"  # 模型名称
        self.request.model_spec.signature_name = "predict_images"  # 签名名称
        print ('grpc is inited')
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值