Pig Hcatalog не удалось прочитать данные из таблицы hive

grunt> table_load = load ‘test_table_one’ USING org.apache.hive.hcatalog.pig.HCatLoader();
grunt> dump table_load;

2016-10-05 17:25 :43,798 [главная] информация
org.апаш.платформа Hadoop.conf.Конфигурация.deprecation-fs.по умолчанию.имя
не одобрять. Вместо этого используйте fs.defaultFS 2016-10-05 17:25: 43,930 [main]
INFO hive.metastore-попытка подключения к metastore с помощью URI
бережливость: / / localhost:9084 2016-10-05 17:25:43,931 [главная] информация
улей.metastore-открыто соединение с metastore, current
соединения: 1 2016-10-05 17:25: 43,934 [main] INFO hive.метастор –
Подключен к metastore. … 2016-10-05 17:25 :58,707 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— HadoopJobId: job_1475669003352_0017 2016-10-05 17:25: 58,707 [main]
ИНФОРМАЦИЯ
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— Обработка псевдонимов table_load 2016-10-05 17:25 :58,707 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— подробные местоположения: M: table_load[7,13] C: R: 2016-10-05
17: 25 :58,716 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— 0% complete 2016-10-05 17:25 :58,716 [main] INFO
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— Запущенные задания [job_1475669003352_0017] 2016-10-05 17:26 :13,753
[main] WARN
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— Ой! Какая-то работа не удалась! Укажите-stop_on_failure, если вы хотите свинью
остановить немедленно на отказе. 2016-10-05 17:26: 13,753 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— работа job_1475669003352_0017 не удалась! Остановить выполнение всех зависимых
работа 2016-10-05 17:26: 13,753 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— 100% complete 2016-10-05 17:26: 13,882 [основная] ошибка
org.апаш.свинья.инструменты.свинарники.mapreduce.MRPigStatsUtil-1 карта уменьшить
работа(ы) не удалось! 2016-10-05 17:26: 13,883 [главная] информация
org.апаш.свинья.инструменты.свинарники.mapreduce.SimplePigStats-Скрипт
Статистика:

HadoopVersion PigVersion UserId StartedAt FinishedAt Особенности
2.6.0 0.15.0 hadoop 2016-10-05 17:25:57 2016-10-05 17:26:13 неизвестно

Не удалось!

Неудачные Задания: Выходные Сообщения Функции Псевдонима JobId
job_1475669003352_0017 table_load MAP_ONLY сообщение: задание не выполнено!
hdfs: / / mycluster / tmp / temp81690062/tmp2002161033,

Входные данные: не удалось прочитать данные из » test_table_one”

Выходные данные: не удалось получить результат в
«hdfs: / / mycluster / tmp / temp81690062/tmp2002161033”

Счетчики: Всего записей записано: 0 Всего байт записано : 0 разливается
Диспетчер памяти количество разливов: 0 Всего мешков предварительно разлито: 0 Всего
записи предварительно разлиты: 0

Работа DAG: job_1475669003352_0017

2016-10-05 17:26: 13,883 [главная] информация
org.апаш.свинья.базовая программа.платформа Hadoop.executionengine.mapReduceLayer.MapReduceLauncher
— Не удалось! 2016-10-05 17:26: 13,889 [основная] ошибка
org.апаш.свинья.инструменты.хмыкнуть.Grunt-ошибка 1066: не удается открыть итератор
для псевдонима table_load подробности в logfile:
/ главная страница/hadoop / pig_1475674706670.бревно

Вы можете помочь мне найти, почему это происходит со мной.?

2 ответа

  1. Или используйте pig -useHCatalogили используйте pigи зарегистрируйте поддерживая ОПАРНИКЫ для HCAT для работы с grunt.

    Вы можете найти необходимые банки, которые совместно используются в HDFS при использовании pig -useHCatalog.

  2. grunt> table_load = load ‘test_table_one’ USING org.apache.hive.hcatalog.pig.HCatLoader();
    grunt> dump table_load;
    

    Это может быть причиной того, что вы не создали таблицу Hive с точным именем. Проверьте таблицу hive и схему для того же.
    Перед использованием Hcatlog мы должны создать схему таблицы сверху на месте, откуда мы загружаем данные. при необходимости используйте любое имя очереди. Перед выполнением проверьте наличие таблицы в hive.

    Надеюсь, это поможет. Пытаться