Índice:

Como você atende a um modelo TensorFlow?
Como você atende a um modelo TensorFlow?

Vídeo: Como você atende a um modelo TensorFlow?

Vídeo: Como você atende a um modelo TensorFlow?
Vídeo: #10. Keras - последовательная модель Sequential | Tensorflow 2 уроки 2024, Dezembro
Anonim

Em ordem de servir um modelo Tensorflow , simplesmente exporte um SavedModel de seu Tensorflow programa. SavedModel é um formato de serialização hermética recuperável e neutro em relação à linguagem que permite que sistemas e ferramentas de alto nível produzam, consumam e transformem Modelos TensorFlow.

Da mesma forma, como executo um modelo do TensorFlow?

Estas são as etapas que iremos realizar:

  1. Faça um modelo idiota como exemplo, treine e armazene.
  2. Busque as variáveis de que você precisa em seu modelo armazenado.
  3. Construa as informações do tensor a partir deles.
  4. Crie a assinatura do modelo.
  5. Crie e salve um construtor de modelo.
  6. Baixe uma imagem do Docker com o TensorFlow servindo já compilado nela.

Além disso, o que é o TensorFlow veiculando? TensorFlow Serving é um flexível e de alto desempenho servindo sistema para modelos de aprendizado de máquina, projetado para ambientes de produção. TensorFlow Serving fornece integração out-of-the-box com TensorFlow modelos, mas pode ser facilmente estendido para servir outros tipos de modelos e dados.

Em relação a isso, como o TensorFlow serve de trabalho?

TensorFlow Serving nos permite selecionar qual versão de um modelo, ou "servível", queremos usar quando fazemos solicitações de inferência. Cada versão será exportada para um subdiretório diferente no caminho fornecido.

O que é um servidor de modelo?

Servidor de modelo para Apache MXNet (MMS) é um componente de código aberto projetado para simplificar a tarefa de implantação de aprendizado profundo modelos para inferência em escala. Implantando modelos pois a inferência não é uma tarefa trivial.

Recomendado: