Problème trouvé sur Cloudera CDH4, mais applicable à n’importe quelle version d’Hadoop pris en charge.
Lors de l’exécution un Hadoop script dans les résultats de contexte « locale » production, mais lors de l’exécution dans le contexte d’hadoop affiche l’erreur suivante :
« Erreur interne : Impossible de réinitialiser params interne de très lorsque vous êtes connecté à un système de fichiers très. »
Causes possibles :
1. - vous sont soit ne pas définir l’option 'nameNode' correctement dans la commande RxHdfsFileSystem() ou que vous utilisez le numéro de port incorrect pour très dans cette même fonction.
Si vous utilisez un EdgeNode votre formulaire de code, assurez-vous que le paramètre « hostName » est le nom réel de le nameNode et pas le nom d’hôte de l’edgenode que vous exécutez à partir de.
En outre, vérifiez le gestionnaire Cloudera et vérifiez que le service très utilise le port '8020', le port par défaut. Si elle est en cours d’exécution sur un autre port, vous devez explicitement définir qui, dans l’appel suivant dans votre Hadoop script de test :
(Par exemple)
myNameNode <-« test1.acme.com »
myPort < - 1700
hdfsFS <-RxHdfsFileSystem (nom d’hôte = myNameNode, port = myPort)
2. - en cas de spécification d’un nœud de bord que vous devez spécifier le même nom d’hôte et le port dans RxHadoopMR() et RxHdfsFileSystem()
3.-Assurez-vous que vous avez copié le fichier jar de RevoScaleR de fichiers à partir du répertoire dans lequel vous avez lancé le programme d’installation de révolution (dossier de révolution),
scaleR-hadoop-0,1-SNAPSHOT.jar dans le répertoire lib Cloudera Hadoop, qui est généralement :
/opt/cloudera/parcels/CDH/lib/Hadoop/lib (pour les parcelles) ou
/usr/lib/hadoop/lib/
Ce fichier doit être copié dans ce dossier sur tous les nœuds de votre cluster Hadoop.
Après avoir modifié un de ces paramètres, exécutez à nouveau le script qui initialement a montré l’erreur.
Si l’erreur persiste, contactez le Support technique, pour un dépannage plus détaillées.