📜  TensorFlow-分布式计算

📅  最后修改于: 2020-12-10 06:05:02             🧑  作者: Mango


本章将重点介绍如何开始使用分布式TensorFlow。目的是帮助开发人员了解重复出现的基本分布式TF概念,例如TF服务器。我们将使用Jupyter Notebook评估分布式TensorFlow。使用TensorFlow进行分布式计算的实现在下面提到-

步骤1-导入分布式计算必需的必要模块-

import tensorflow as tf

第2步-创建一个带有一个节点的TensorFlow集群。让此节点负责一个名称为“ worker”的作业,该作业将在localhost:2222处执行一次操作。

cluster_spec = tf.train.ClusterSpec({'worker' : ['localhost:2222']})
server = tf.train.Server(cluster_spec)
server.target

上面的脚本生成以下输出-

'grpc://localhost:2222'
The server is currently running.

步骤3-可以通过执行以下命令来计算具有相应会话的服务器配置-

server.server_def

上面的命令生成以下输出-

cluster {
   job {
      name: "worker"
      tasks {
         value: "localhost:2222"
      }
   }
}
job_name: "worker"
protocol: "grpc"

步骤4-启动以执行引擎为服务器的TensorFlow会话。使用TensorFlow创建本地服务器,并使用lsof查找服务器的位置。

sess = tf.Session(target = server.target)
server = tf.train.Server.create_local_server()

步骤5-查看此会话中可用的设备并关闭相应的会话。

devices = sess.list_devices()
for d in devices:
   print(d.name)
sess.close()

上面的命令生成以下输出-

/job:worker/replica:0/task:0/device:CPU:0