Bei Microsoft anmelden
Melden Sie sich an, oder erstellen Sie ein Konto.
Hallo,
Wählen Sie ein anderes Konto aus.
Sie haben mehrere Konten.
Wählen Sie das Konto aus, mit dem Sie sich anmelden möchten.

In einem Cluster MapR 4.0.1 fehlschlagen Revolution R Mapreduce Aufträge mit Fehler:

2015-02-13 08:00:37, 657 Schwerwiegender Fehler [IPC Serverhandler 2 auf 52243] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Aufgabe: attempt_1423734868663_0289_m_000000_0 - beendet: java.io.IOException: R VM mit Exitcode beendet: 1, Ausgabe:
Skript starten
[1] TRUE
$fileName 
[1] NA
$start 
[1] 0
$length 
[1] 0
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_Z21CriticalSignalHandleri+0x1e)[0x7fe02d3d423e] 
/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.71.x86_64/jre/lib/amd64/server/libjvm.so(+0x7e2628)[0x7fe0282f8628] 
/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.71.x86_64/jre/lib/amd64/server/libjvm.so(JVM_handle_linux_signal+0x95)[0x7fe0282fea55] 
/lib64/libpthread.so.0[0x30cec0f710] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_ZNK10CxAnalysis19HaveWriteDataSourceEv+0x0)[0x7fe02acbc280] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libExaCore.so.2(_ZN10CxAnalysis18GetWriteDataSourceEv+0x9)[0x7fe02acbcb49] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(_Z19RxComputeHadoopTaskR11RListObjectR11RxAllocator+0x3b3)[0x7fe02e2a5d23] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(_Z10RxUtilBaseP7SEXPREC+0x6db)[0x7fe02e2b2fab] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/library/RevoScaleR/rxLibs/x64/libRxLink.so.2(RxUtil+0x34)[0x7fe02e2b3f14] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(+0x9f36b)[0x7fe04083536b] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(Rf_eval+0x871)[0x7fe04086be91] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(Rf_ReplIteration+0x212)[0x7fe0408946a2] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(+0xfea59)[0x7fe040894a59] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/lib/libR.so(run_Rmainloop+0x44)[0x7fe040894f64] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/bin/exec/R(main+0x1b)[0x40084b] 
/lib64/libc.so.6(__libc_start_main+0xfd)[0x30ce41ed5d] 
/usr/lib64/Revo-7.3/R-3.1.1/lib64/R/bin/exec/R[0x400739] 
Ws_retryer.

am com.revolutionanalytics.scaleR.hadoop.Rscript.waitFor(Rscript.java:103)
am com.revolutionanalytics.scaleR.hadoop.Rscript.run(Rscript.java:59)
am com.revolutionanalytics.scaleR.hadoop.RDelegatingMapper.run(RDelegatingMapper.java:73)
Bei org.apache.hadoop.mapred.MapTask.runNewMapper (MapTask.java:773)
Bei org.apache.hadoop.mapred.MapTask.run (MapTask.java:345)
Bei org.apache.hadoop.mapred.YarnChild$2.run (YarnChild.java:167)
Bei java.security.AccessController.doPrivileged (systemeigene Methode)
am javax.security.auth.Subject.doAs(Subject.java:415)
am org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1469)
Bei org.apache.hadoop.mapred.YarnChild.main (YarnChild.java:162)

Auf MapR 4.0.1 Plattformen ist dies aufgrund der Revolution R Umgebung Unternehmenskonfiguration die falsche libhdfs.so Bibliothek.

Um das Problem zu umgehen, bestätigen Sie, dass die Konfiguration nach der Installation folgendermaßen für Revolution R 7.3 auf MapR 4.0.1 Cluster erstellt wurde:

Erstellen Sie auf dem Knoten "Client" native Dateisystem freigegebenen Verzeichnisses für alle Benutzer:

1. Sudo Mkdir -p /var/RevoShare/mapr
3. Chmod 777 /var/RevoShare/mapr
4. hinzufügen. /usr/lib64/Revo-7.3/Scripts/RevoHadoopEnvVars.Site, /home/mapr/.bash_profile

Auf jedem Knoten Arbeitskraft ändern:

# cp scaleR-hadoop-0.1-SNAPSHOT.jar /opt/mapr/hadoop/hadoop-2.4.1/share/hadoop/common/lib/ # ln -s /opt/mapr/hadoop/hadoop-0.20.2/c++/Linux-amd64-64/lib/libhdfs.so /usr/lib64 
# mv /opt/mapr/hadoop/hadoop-2.4.1/lib/native/libhdfs.so /opt/mapr/hadoop/hadoop-2.4.1/lib/native/libhdfs.so.save



Die Installation der Revolution erstellt automatisch einen Link zu ScaleR Hadoop-0,1 SNAPSHOT.jar $HADOOP_HOME/lib. Jedoch das falsche Verzeichnis (ein Fehler berichtet) und die Datei verknüpft oder in /opt/mapr/hadoop/hadoop-2.4.1/share/hadoop/common/lib/ kopiert werden.

/Opt/mapr/hadoop/hadoop-0.20.2/c++/Linux-amd64-64/lib/libhdfs.so in lib64 verknüpfen wird sichergestellt, dass die richtigen libhdfs.so Revolution r findet Der dritte Schritt ist libhdfs.so Problem aus dem Weg verschoben.

Benötigen Sie weitere Hilfe?

Möchten Sie weitere Optionen?

Erkunden Sie die Abonnementvorteile, durchsuchen Sie Trainingskurse, erfahren Sie, wie Sie Ihr Gerät schützen und vieles mehr.

In den Communities können Sie Fragen stellen und beantworten, Feedback geben und von Experten mit umfassendem Wissen hören.

War diese Information hilfreich?

Wie zufrieden sind Sie mit der Sprachqualität?
Was hat Ihre Erfahrung beeinflusst?
Wenn Sie auf "Absenden" klicken, wird Ihr Feedback zur Verbesserung von Produkten und Diensten von Microsoft verwendet. Ihr IT-Administrator kann diese Daten sammeln. Datenschutzbestimmungen.

Vielen Dank für Ihr Feedback!

×