Error de connection de nodo de datos HDFS en un contenedor de docker

Estoy tratando de enviar un trabajo de chispa usando mi máquina de desarrollo. Spark se está ejecutando en un contenedor acoplable y aparece el siguiente error. Usé -p 50010: 50010 como parte del command de ejecución del acoplador, pero todavía no tuve suerte.

¿Hay alguna otra configuration que deba establecer para habilitar la connection al nodo de datos?

> 16/02/04 09:15:10 INFO DFSClient: Exception in createBlockOutputStream > org.apache.hadoop.net.ConnectTimeoutException: 60000 millis timeout > while waiting for channel to be ready for connect. ch : > java.nio.channels.SocketChannel[connection-pending > remote=/178.19.0.2:50010] at > org.apache.hadoop.net.NetUtils.connect(NetUtils.java:533) at > org.apache.hadoop.hdfs.DFSOutputStream.createSocketForPipeline(DFSOutputStream.java:1610) > at > org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1408) > at > org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1361) > at > org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:588) > 16/02/04 09:15:10 INFO DFSClient: Abandoning > BP-1937503393-178.19.1.10-1440740598640:blk_1073741858_1035 16/02/04 > 09:15:10 INFO DFSClient: Excluding datanode 178.19.0.2:50010