Назад к списку

21 тренд в передачи данных и их аналитики в 2016 году

Эксперты ресурса www.cio.com предсказали ряд трендов, которые определят равитие рынка большого объма данных и их аналитики в 2016 году. 

Наряду с социальными сеями, мобильными и облачными решениями, автоматизированная передача большого объема бизнес-позателей, их аналитика и связанные с ними технологии, заняли центральное место в качестве одного из драйверов и трансформаторов века цифровых технологий. В 2015 году появилось много инициатив среди разработчиков програмных решений для оптимизации опций анализа данных и инструментов бизнес-аналитики. Эти тенденции дали сильный толчок для развития интеллектуальных  продуктов для всех свер экономики.

Скотт ГНАУ, технический директор компании Hadoop, разработчика программного продукта Hortonworks.

  • Интернет вездесущий. В 2016 году предприятия будут концентрироваться на извлечении пользы и повышении эффективности от любых получаемых данных и их анализа. "Это не просто Интернет вещей, а Интернет всего, что может дать нам возможность для приянтия решений," - говорит он. "Получение данных выходит за рамки устройств, датчиков и оборудования и включает в себя все данные, в том числе, которые производятся с помощью серверов, местоположения объектов и показателей из Интернета." 
  • Данные за пределами системы. Компании должны смотреть за пределы своих центров обработки данных. Сечас потоки данных генерируются из различных удаленных устройств, датчиков и серверов - например, нефтяная вышка в океане или спутник в космосе. Существует реальные возможность управлением периметра безопасности, а также для обеспечения получения данных в полном объеме  и изо всех источников системы. Создается новая парадигма, которая требует нового мышления и новых систем управления данными, и эти решения будут появляться и тестироваться предприями в 2016 году. 
  • Данные в развитии информационных платформ. Промышленность увидит эволюцию обработки данных в развитиии программных платформ в 2016 году. "Существует необходимость в созданнии платформы высокого уровня для обработки различных протоколов и устройств и выведения всех потоков данных в Hadoop," - говорит ГНАУ. "Платформа должна облегчить взаимодействие на нескольких языках протокола." 
  • Большие объемы данных - легко. Рынок требует упрощения больших технологий передачи данных, и поиска новых возможностей, связанных с передачей больших объемов цифровой информации: технических, возможностей для пользователей и потребителей и так далее. "Не имеет значения, кто вы - оператор, администратор безопасности, бизнес-аналитик данных - каждый хочет простого представления большого объема передаваемых данных. "Важно все: и единая интегрированная платформа разработчика, и небольшое число настроек или профилей  для инструмента аналитики получаемых данных".
  • Миссия Hadoop в использовании в сферах критических информационных нагрузок, там, за пределами компаний работающих в сегменте облачных сервисов. 

Дипак Кумар, основатель и технический директор ИТ-систем решений в области управления провайдера Adaptiva,

  • Это год - год ограничения получаемых данных. "Использование передачи большого объема данных станет более регулируемым, поскольку провайдеры не смогут идти в ногу с требованием к передаче данных и бизнес не готов к росту стоимости передачи больших объемов данных", - говорит Кумар. - "В результате, компании начнут использовать технологии, которые при передаче данных позволяют их анализировать и контролировать кокретные метрики." 
  • Системы управления предприятий требуют возможностей и функционала аналитики больших объемов данных. "Интеграция решений для анализа разрозненных данных будет терять популярность, уступая дорогу автоматизированным системам управления предприятия со встроенными возможностями автоматизрованного анализа больших объемов данных. 

Бадри Рагаван, главный научный сотрудник специализированного аналитического программного обеспечения в сфере энергетики FirstFuel Software

  • Демократизация данных. Благодаря таким  решениям, как Amazon Mechanical Turk, предприятия и частные лица смогут гораздо легче собрать данные со всего мира, к которому они ранее не имели доступа. "Данные не только будет легче найти, но и проанализировать. Благодаря появлению удобных инструментов даже люди без глубоких знаний для анализа информации, смогут оценить множество показателей". 
  • Увеличенние значимости конфиденциальности данных. Европа недавно установила строгие правила в сфере безопасности передачи данных. Это означает, что организации должны в своей стратегии развития обеспечить решение вопросов безопасности данных. "Наряду с инициативами конфиденциальности данных необходима гарантия соблюдения локальных и глобальных законов в этой области".
  • Новые приложения для проникновения в суть данных. В 2016 году организации и частные лица будут получать данные и инструменты для их аналитики включая аналитику персонифиуированных данных, аналитику в различных сферах экономики, включая энергетику, спорт, социальные блага и музыку. "Например, люди будут иметь возможность использовать данные, чтобы изменить песню, основанную на их личных предпочтений (например, они захотят добавить больше ударных инструментов)," - говорит он.

Дэн Коган, директор по маркетингу продуктов бизнес-аналитики и аналитики компании Tableau Software прогнозирует множество тенденций в большом пространстве данных на 2016 год, в том числе: 

  •  NoSQL преимуществаКоган говорит, 2016 год увидит смещение к базам данных NoSQL в качестве драйыера предприятий и IT-ландшафта. Так как преимущества минимизированных схем сбора и обработки баз данных становятся более выраженными. "Ничто так ярко не иллюстрирует картину, чем опыт компании Gartner Magic Quadrant которая разработала систему управления базами данных (Operational Database Management Systems) там, где в прошлом доминировали Oracle, IBM, Microsoft и SAP," - говорит он. "В отличие от этого, мы видим компании, использующие подходы NoSQL, в том числе MongoDB, DataStax, Redis Labs, MarkLogic и Amazon Web Services (с DynamoDB), показывающие рост популярности по сравнению с традиционными системами управлениями баз данных.
  • Apache Spark покоряет большие данные. Программный каркас Apache Spark превратился из элемента экосистемы Hadoop в платформу обработки данных для целого ряда предприятий. "Spark обеспечивает большую скорость обработки данных по сравнению с Hadoop и в настоящее время является самой крупной платформой с открытым кодом для анализа больших данных". "Мы видим все больше примеров использования этого программного каркаса, например, в Goldman Sachs, где Spark стал основной языковой средой больших аналитических данных. 
  • Объем данных растет: Hadoop примыкает к корпоративным стандартам. Коган говорит, что возможности предприятие Hadoop будет расти в 2016 году "Hadoop становится основной частью ИТ-ландшафта предприятий, мы увидим инвестиции инфраструктуры корпоративных систем, в том чсле систему бизопасности. "Проект Apache Sentry обеспечивает систему безопасности, авторизации и доступа к различным уровням данных и метаданных, хранящихся на кластере Hadoop. Это возможности, которых ожидают клиенты корпоративных платформ". 
  • Большие данные - быстро. Мы видим растущий спрос со стороны конечных пользователей, желающих получать данные с такой же скоростью, как и данные с традиционных хранилищ информации. "Для того, чтобы удовлетворить этот спрос конечных пользователей, мы видим растущее внедрение таких технологий, как Cloudera Impala, AtScale, Actian Vector и Jethro Data. Это размывает традиционные понятия BI концепций и мира больших данных.
  • Число возможностей сервисов обработки данных привлекают конечных пользователей разнообразным функционалом. Растет популярность инструментов и сервисов обработки данных. По мнению господина Когана, это происходит отчасти из-за сдвига в сторону бизнес-пользователей и возможностей сервисов анализа данных, таких как Tableau, которые сокращают время для анализа данных. "Бизнес-пользователи теперь хотят также иметь возможность экономии времени и усилий подготовки данных для анализа, это особенно важно в мире больших данных, когда анализируются различные типы данных и форматов,"- говорит он.
  • Рост MPP хранилищ данных в облаке накаляется! Не секрет, что рост сегмента рынка хранения данных замедляется. "Но теперь мы видим значительный сдвиг в применении этой технологии в облако, где Amazon Redshift применил решение облачного сервиса для хранения данных по требованию. "Redshift был наиболее быстрорастущим сервисом AWS, но теперь он ощущает конкуренцию со стороны Google с BigQuery и др. предложений.
  • Понятия интегрируются и ассимилируются: IoT, облако и большие данные объединяются. "Мы видим разработки таких компаний  как Google, Amazon Web Services и Microsoft , которые позволяют переносить данные от Интернет-вещей в облако и анализироваться наряду с другими данными".

Дэн Грэм, генеральный менеджер корпоративных систем на хранилищ данных и большой специалист анализа данных Teradata.

  • Алгоритмы войдут в зал заседаний. "Для руководителей и инвесторов начнут уделять больше внимание ядру аналитики как основе  бизнес-целей." 
  • Массивы данных, наконец, приведут к потрясающим приложениям. Разработчики будут работать над уменьшением стоимости хранения и обработки больших объемов даных.