Num cluster MapR 4.0.1, tarefas de mapreduce de revolução R poderão falhar com o erro:

2015-02-13 08:00:37, 657 FATAL [servidor IPC rotina de tratamento de 2 de 52243] org.apache.hadoop.mapred.TaskAttemptListenerImpl: tarefa: attempt_1423734868663_0289_m_000000_0 - terminado: java.io.IOException: R VM foi encerrado com o código de saída: 1, saída:script de inícioTRUE [1]$fileName [1] NA$start [1] 0$length [1] 0/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_Z21CriticalSignalHandleri+0x1e)[0x7fe02d3d423e] /usr/lib/jvm/java-1.7.0-openjdk-1.7.0.71.x86_64/jre/lib/amd64/server/libjvm.so(+0x7e2628)[0x7fe0282f8628] /usr/lib/jvm/java-1.7.0-openjdk-1.7.0.71.x86_64/jre/lib/amd64/server/libjvm.so(JVM_handle_linux_signal+0x95)[0x7fe0282fea55] /lib64/libpthread.so.0[0x30cec0f710] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_ZNK10CxAnalysis19HaveWriteDataSourceEv+0x0)[0x7fe02acbc280] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_ZN10CxAnalysis18GetWriteDataSourceEv+0x9)[0x7fe02acbcb49] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(_Z19RxComputeHadoopTaskR11RListObjectR11RxAllocator+0x3b3)[0x7fe02e2a5d23] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(_Z10RxUtilBaseP7SEXPREC+0x6db)[0x7fe02e2b2fab] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(RxUtil+0x34)[0x7fe02e2b3f14] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(+0x9f36b)[0x7fe04083536b] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(Rf_eval+0x871)[0x7fe04086be91] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(Rf_ReplIteration+0x212)[0x7fe0408946a2] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(+0xfea59)[0x7fe040894a59] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(run_Rmainloop+0x44)[0x7fe040894f64] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/bin/exec/R(main+0x1b)[0x40084b] /lib64/libc.so.6(__libc_start_main+0xfd)[0x30ce41ed5d] /usr/lib64/Revo-7.3/R-3.1.1/lib64/R/bin/exec/R[0x400739] Falha de segmentação.em com.revolutionanalytics.scaleR.hadoop.Rscript.waitFor(Rscript.java:103)em com.revolutionanalytics.scaleR.hadoop.Rscript.run(Rscript.java:59)em com.revolutionanalytics.scaleR.hadoop.RDelegatingMapper.run(RDelegatingMapper.java:73)em org.apache.hadoop.mapred.MapTask.runNewMapper (MapTask.java:773)em org.apache.hadoop.mapred.MapTask.run (MapTask.java:345)em org.apache.hadoop.mapred.YarnChild$2.run (YarnChild.java:167)em java.security.AccessController.doPrivileged (método nativo)em javax.security.auth.Subject.doAs(Subject.java:415)em org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1469)em org.apache.hadoop.mapred.YarnChild.main (YarnChild.java:162)

Em plataformas de MapR 4.0.1, este é relacionado com a configuração de ambiente de revolução R Enterprise utilizando a biblioteca de libhdfs.so incorrecto.Para contornar o problema, confirme que os seguintes passos de configuração pós-instalação tenham sido conduzidos para Revolução R 7.3 clusters MapR 4.0.1:No nó 'Cliente', crie o directório partilhado do sistema de ficheiros nativo para cada utilizador:1. sudo mkdir -p /var/RevoShare/mapr3. chmod 777 /var/RevoShare/mapr4. Adicione. /usr/lib64/Revo-7.3/scripts/RevoHadoopEnvVars.site para /home/mapr/.bash_profileEm todos os nós de trabalho, efectue as seguintes alterações:

# cp scaleR-hadoop-0.1-SNAPSHOT.jar /opt/mapr/hadoop/hadoop-2.4.1/share/hadoop/common/lib/ # ln -s /opt/mapr/hadoop/hadoop-0.20.2/c++/Linux-amd64-64/lib/libhdfs.so /usr/lib64 # mv /opt/mapr/hadoop/hadoop-2.4.1/lib/native/libhdfs.so /opt/mapr/hadoop/hadoop-2.4.1/lib/native/libhdfs.so.save

A instalação de revolução R cria automaticamente uma hiperligação para SNAPSHOT.jar-de-hadoop-0,1-medidor de escala na /lib $HADOOP_HOME. No entanto, este é o directório incorrecto (tem sido comunicado um erro) e o ficheiro deve ser ligado ou copia, para /opt/mapr/hadoop/hadoop-2.4.1/share/hadoop/common/lib/.Ligar /opt/mapr/hadoop/hadoop-0.20.2/c++/Linux-amd64-64/lib/libhdfs.so na /usr/lib64 irá garantir que o libhdfs.so de bom é encontrado, r rotação. O terceiro passo é necessário para mover para fora da área de trabalho libhdfs.so o problema.

Precisa de mais ajuda?

Quer mais opções?

Explore os benefícios da subscrição, navegue em cursos de formação, saiba como proteger o seu dispositivo e muito mais.

As comunidades ajudam-no a colocar e a responder perguntas, a dar feedback e a ouvir especialistas com conhecimentos abrangentes.