Конференция Arenadata
Новое время — новый Greenplum
Мы приглашаем вас принять участие в конференции, посвященной будущему Open-Source Greenplum 19 сентября в 18:00:00 UTC +3. Встреча будет проходить в гибридном формате — и офлайн, и онлайн. Онлайн-трансляция будет доступна для всех желающих.
Внезапное закрытие Greenplum его владельцем — компанией Broadcom - стало неприятным сюрпризом для всех, кто использует или планирует начать использовать решения на базе этой технологии. Многие ожидают выхода стабильной версии Greenplum 7 и надеются на её дальнейшее активное развитие.
Arenadata не могла допустить, чтобы разрабатываемый годами Open-Source проект Greenplum прекратил своё существование, поэтому 19 сентября мы представим наш ответ на данное решение Broadcom, а участники сообщества получат исчерпывающие разъяснения на все вопросы о дальнейшей судьбе этой технологии.

На конференции вас ждёт обсуждение следующих тем:

  • План возрождения Greenplum;
  • Дорожная карта;
  • Экспертное обсуждение и консультации.
Осталось до события

Hadoop command-line

This article explains the difference between hadoop fs {args}, hadoop dfs {args}, and hdfs dfs {args} commands.

The fs parameter refers to a shared file system that can point to any file system, such as local, HDFS, etc.
So, fs can be used while working with various file systems, such as Local FS, (S)FTP, S3, and others.

HadoopFSLayers dark
Hadoop FS layers
HadoopFSLayers light
Hadoop FS layers

When you use the dfs parameter, you directly specify the interaction with HDFS.
So, if you want to work only with HDFS, use the hdfs dfs command.
But if you need to access/transfer data between different file systems, use the hadoop fs command.

To interact with the HDFS shell, a user must have sufficient read/write permissions to an HDFS directory(-ies). These directories can be created by a user that belongs to either hadoop or hdfs group. For demonstration purposes, we use the hdfs user in the example below.

First, you can grant root privileges to the current user:

$ sudo -s

And then you need to switch to hdfs user:

$ su - hdfs

Now you can execute commands in the HDFS shell.

Found a mistake? Seleсt text and press Ctrl+Enter to report it