Русский /

Блог

Компании, работающие с big data, упорно ищут способы извлечения практически полезной информации из своих данных. Как обработанная информация может оказать реальное влияние на создание более клиенто-ориентированных продуктов и услуг? Для ответа на этот вопрос компании нанимают дорогостоящих специалистов и приобретают оборудование, способное анализировать подмножества больших данных в режиме реального времени для немедленного извлечения полезной информации.

Недавний отчет исследовательского центра TheEconomistIntelligenceUnit (EIU) и международной фирмы по сбыту и маркетингу ZS сообщает, что, в то время как 70% руководителей компаний оценивают аналитику продаж и маркетинга как «очень» и «крайне важную», всего 2% уверенно заявили, что они достигли «широкого позитивного результата». Разрыв очень велик.

Трудности помогают увидеть новые возможности

В то время как потенциальная ценность капитализации больших данных, безусловно, привлекает внимание бизнеса, связанные с ней трудности просто ошеломительны. Происходит экспоненциальный рост данных, их источников, форматов.  Добавьте к этому Интернет вещей и связанное с ним резкое распространение устройств – сложности с обработкой только усугубляются.

Существует недостаток навыков, требуемых для расшифровки больших данных, и путаница с конкретным набором компетенций, которыми должны обладать инженеры и учёные, работающие с big data. Многие компании отмечают, что дорогостоящие специалисты по обработке данных не оправдали ожиданий и не принесли ожидаемой ценности.  Аналитики данных и учёные должны уметь говорить на языке бизнеса, общаться со своими внутренними заказчиками.

Новое исследование Ассоциации индустрии вычислительных технологий (ComputingTechnologyIndustryAssociation– CompTIA) показывает, что самые большие пробелы в навыках наблюдаются в аналитике в реальном времени (заявили 42%), далее следуют проблемы с реляционными базами данных (41%), безопасность хранения данных (36%), упреждающий анализ (35%), распределенное хранилище данных (33%) и извлечение информации из данных (30%).

Еще один пробел относится к технологии. Поскольку для работы с big data требуются новые технологические инструменты, недостаток опыта работы с ними может на самом деле вызывать задержки, когда компании стремятся наиболее эффективно использовать свои данные.

Наконец, существуют обычные ограничения ИТ-бюджетов, проблемы, связанные с безопасностью данных и трудности, вызванные интеграцией новых категорий технологических услуг.

Что делают компании сейчас?

По данным исследования NewVantagePartnerExecutive, большие данные стали основной тенденцией в 1000 компаниях по версии Fortune, причем 69,9% их них считают большие данные «очень важными» или «критически важными». Они делают значительные инвестиции как в технологию, так и в сотрудников, чтобы увеличивать получение ценной информации из больших данных и увеличивать способность бизнеса действовать быстрее.

В дополнение к наращиванию инфраструктуры и технологических инструментов, компании принимают на работу разработчиков и специалистов по обработке данных и даже вводят новую должность – утилизатор данных. До того, как была введена эта новая должность, специалисты по обработке данных тратили значительную часть своего ценного времени на вычищение данных, прежде чем даже подумать об извлечении ценной информации.

Путаница с ролями и должностями существует до сих пор, и по-прежнему существует большая сложность, касающаяся освоения объемов, разнообразия и скорости поступления данных из многочисленных источников.

Можно ли передать эти функции на аутсорсинг доверенному партнеру?

Некоторые компании работают со внешними провайдерами, специализирующимися на работе с большими данными. Это помогает сократить время, требуемое на внедрение инструментов для работы с big data. В этих компаниях специалисты по большим данным обладают знаниями о технологических инструментах и опытом проведения анализа данных и извлечении ценной информации. При этом, компания может либо полностью передать инициативы в области больших данных на аутсорсинг, либо построить с помощью подрядчика техническую инфраструктуру.

Какую работу в области больших данных выполняет First Line Software?

Модель ведения бизнеса в компании FirstLineSoftware ближе всего к модели «данные как сервис». Компании обходятся без затрат на организацию процесса управления объемами данных и расходов на персонал, обладающий опытом и знаниями, требуемыми для внедрения своих инициатив в области больших данных.

В FirstLineSoftware сформирована команда специалистов, обладающих техническими знаниями и квалификацией, необходимыми для запуска проектов в области больших данных, и соответствующих внутренним требованиями заказчиков. Наши специалисты по обработке данных создают физическую инфраструктуру и управляют ею; высококвалифицированные аналитики извлекают и изучают соответствующие данные, чтобы получить из них ценную информацию.

Наш опыт в области распространяется на множество отраслей и разнообразных инициатив в области больших данных, например:

  • Вычислительные системы обработки запросов с большим объемом дисковой памяти/ большой нагрузкой – для обработки деклараций по НДС для налоговой инспекции
  • Мониторинг и анализ поведения потребителей
  • Проект хранения данных для транспортной компании
  • Хранение и аналитика данных в сфере здравоохранения

Компания FirstLineSoftware выбирает лучшие инструменты и технологии big data, включая Hadoop для хранения данных, инфраструктуру Hive и систему обработки запросов ClouderaImpala – для технологии организации очередей с малой задержкой.

Каждая инициатива в области больших данных имеет уникальную инфраструктуру и требования к аналитике. Если вы хотите использовать аутсорсинг для всех инициатив в сфере больших данных или для их части, свяжитесь с нами, чтобы обсудить наилучшую для вашей компании форму партнерства с FirstLine.