In English

Под термином Big Data скрываются самые разные вещи

24.01.2014, Крылова Александра
Издание: ИКС
Рынок до сих пор не определился, что такое «большие данные» - давно известные технологии или архитектуры для решения нового класса задач. 

Мнения системных интеграторов и поставщиков решений - в полной версии Дискуссионного Клуба «ИКС» темы «№»1-2 «Кому и чем полезна Big Data?». Часть 1. 

?»ИКС»: Согласны ли вы с утверждением, что Big Data - это в большей степени маркетинговый термин, чем набор новых технологий и архитектур? 

Сергей Кузнецов, директор по технологиям Дивизиона Данных, IBS: Не согласен. Я считаю, что термин Big Data как раз символизирует новый виток развития архитектуры и технологий для обработки не только большого объема данных, но и для абсолютно новых типов интерактивных, быстро-изменяющихся и неструктурированных данных. Как пример, можно привести адаптированные программно-аппаратные комплексы для хранения таких структур (SAP Hana, Exadata). Появились и абсолютно новые подходы в анализе и хранении - Лямбда-архитектура, которая помогает анализировать, в том числе потоковые данные, и существенно сокращает время принятия решения. 

Денис Первушин, директор департамента бизнес-приложений Oracle, «АйТи»: Говорить о том, что Big Data - это только маркетинговый термин не вполне корректно. Несмотря на то, что решения для обработки больших объемов информации в основе своей содержат те компоненты, которые были разработаны и до появления самого термина «Big Data», новизна подхода заключается в том, что производители предлагают преднастроенные и оптимизированные для выполнения нового класса задач аппаратно-программные комплексы. Изменилась и архитектура решений - например, для эффективного решения задач бизнес-анализа на больших данных потребовалось использование таких технологий, как In-Memory Database, без комплексного использования которых задача оптимального кэширования данных для построения аналитики вряд ли была бы приемлемо решена. 

Александр Хлуденев, заместитель генерального директора по перспективным технологиям, КРОК: Есть информация, что термин Big Data пришел он из академической научной среды. В то же время это и набор технологий, таких, как потоковая аналитика и аналитика неструктурированных данных, распределенные файловые системы и базы данных, массивно-параллельная обработка. Часть из них - относительно новые для массового применения в ИТ, а часть получили «второе дыхание» благодаря интересу к Big Data в силу расширения возможностей решения реальных задач. 

Денис Андриков, заместитель технического директора по работе с заказчиками, «Открытые Технологии»: Любая новая технология в своем развитии проходит разные стадии: заявление о себе, набирание оборотов, резкий рост, расцвет и, наконец, спад, двигаясь по своеобразному hype-cycle. А дальше возможно два варианта развития событий: либо технология становится повседневной, как Wi-Fi, о ней уже не говорят, а просто используют, либо она не приживается и уходит в небытие. 

Сейчас Big Data как раз находится на своем пике, в стадии активного роста, поэтому можно сказать, что пока маркетинговое продвижение опережает технологическое развитие. Полностью проработанной технологической базы еще нет, все еще в стадии развития. 

Виктор Сусойкин, директор по консалтингу Центра финансовых решений, РДТЕХ: Big Data - это техническая концепция, предполагающая определенные подходы, ИТ-инструменты и методики для аналитической работы с большими объемами разнородных данных (объемы, скорость и разнородность данных - три ключевых свойства BigData). В силу популяризации данной концепции вендоры не могут этим не пользоваться ее названием, и потому одновременно с технической концепцией Big Data стал еще и устоявшимся маркетинговым термином. 

Алексей Тоскин, генеральный директор, T-Systems CIS: Новые технологии за термином есть, это бесспорно, но они завернуты в красивую маркетинговую обертку. Иногда в понятие Big Data объединяют такие тенденции, как увеличение количества информации, снижение скорости обработки и разнообразие источников и типов информации, а также вызванная ими потеря структурированности. Хотя в принципе Big Data - это большой объем любых данных, структура и тип данных неважны (они могут быть и однородны). Если время отклика системы больше 10 секунд и это не вызвано производительностью сервера базы данных, то, скорее всего, данные большие. Проблема разве нова? Но масштабы уже другие. 

Дмитрий Бухаринов, ведущий аналитик отдела продаж систем бизнес-анализа, Softline: Само понятие больших данных существует достаточно давно, но в современном понимании термин употребляется с 2008 года. Думаю, это закономерный процесс выделения отдельного направления по обработке данных, необходимость его появления продиктована сложившейся ситуацией. Некоторые считают, что существующие системы BI в сочетании с крупными хранилищами данных - это и есть Big Data, но подобное сравнение не совсем корректно, поскольку BI - это обработка исторических данных, в соответствии с заранее заданным паттерном. В случае Big Data паттерн заранее не известен. И тут важен не столько объем данных, сколько скорость их появления. Это первое. Второй аспект - неструктурированность входящих данных, что также требует новых способов обработки, отличных от «классических». Третье, что бы я выделил, - множество источников, которые необходимо оперативно анализировать и находить взаимосвязи между ними. Например, если произошло снятие денежных средств с карты клиента в Москве, а он в своем Twitter в это время пишет: «Как здорово отдыхать в Таиланде!» - то это сразу должно рассматриваться службой безопасности банка как тревожный инцидент. 

Александр Василенко, глава представительства, VM Ware в России и СНГ: Технологии Big Data с каждым днем все больше проникают как в научно-исследовательскую деятельность, так и в коммерческий сектор и сферу госуправления. Сегодня мы переживаем самый прорывной период в истории индустрии - каждый день создается 2,5 квинтиллиона байтов данных, объемы информации продолжают стремительно расти, грани между консьюмерским и корпоративным ИТ стираются: у нас есть социальные сети, мобильные технологии, BYOD, облака...»Большие данные» весьма критичны для бизнеса, и в будущем их значение будет только возрастать. 

Олег Глебов, эксперт по информационной безопасности компании «Андэк»: Есть два направления анализа «больших данных». Первое представлено специализированными решениями, которые изначально разрабатывались для этих задач и представляют собой готовые продукты для коммерческого использования, например, Hadoop или Cassandra. Второе направление связано со встраиванием технологий анализа больших данных в специализированные программные продукты, например, специализированные базы данных, аналитические продукты, ERP системы и др. Пользователи таких ИТ - решений уже пользуются преимуществами анализа больших данных, возможно, даже не подозревая об этом. 

Сергей Знаменский, технический консультант, HP Россия: С одной стороны Big Data - это термин, обозначающий границы возможностей (применимости) аналитических систем, построенных на основе реляционных СУБД. Этот термин не дает при этом четкого определения границы, за которой начинаются «большие данные» - то есть эта граница может быть индивидуальна для каждой компании, использующей аналитические системы и начинается от десятков или сотен терабайт и выше. С другой стороны, Big Data обозначает область применения технологий и архитектур нового поколения, оптимизированных для обработки «больших данных» как структурированных так и неструктурированных. 

Сергей Лихарев, руководитель продаж IBM Big Data Solutions: В первую очередь, Big Data - то набор технологий и архитектур, помогающих эффективно делать вещи, ранее компаниям и организациям недоступные. Термин, по-моему, вторичен, а составные части понятия Big Data - объективная реальность. Мало кто будет спорить, что объемы генерируемых данных становятся просто гигантскими, что скорость поступления данных в организацию, по сути своей, это отражение событий реального времени в жизни и в окружающей среде, что данные представлены в самых разных форматах. Значит, технологии и архитектуры, помогающие компаниям анализировать информацию и принимать решения на основе анализа «больших данных», которые возникают в режиме реального времени, - совершенно практическая вещь. 

Александр Зейников, региональный менеджер по продажам в России и СНГ, LSI: BigData - это не маркетинговый, а технический термин. Он обозначает комплекс проблем при обработке больших объемов информации. Восприятие же этого термина как маркетингового связано с чрезмерным его использованием в маркетинговых материалах, посвященных решению проблем при обработке больших объемов данных. На сегодняшний день есть целый набор архитектур и решений, а соответственно и компаний, напрямую ассоциированных с Big Data с помощью маркетинговых коммуникаций. Все это - нормальный процесс коммерциализации технических проблем, возникающих с развитием вычислительных систем. Любая новая тема всегда проходит фазу максимальной информационной освещенности, и Big Data в этом отношении не исключение. 

Андрей Медведев, руководитель направления технологического консалтинга, Qlik-Tech: На мой взгляд, подобная постановка вопроса не совсем некорректна. Это не маркетинг и не технология\архитектура в чистом виде. Big Data из быстро принятого IT- миром маркетингового термина превратился в подход к хранению и обработке массивов данных различного уровня структуризации и формализации. Этот подход позволяет производить анализ этого массива с очень высокой скоростью, что для многих компаний является критически важным преимуществом на конкурентном рынке. Естественно, любая идея должна быть подкреплена со стороны архитектуры и технологического стека продуктов и, на данный момент, подобные архитектуры и связки программного обеспечения прекрасно работают в решениях мировых лидеров по производству и поставке как программных, так и программно-аппаратных решений, а также в Open Source сообществе. 

Андрей Прозоров, ведущий эксперт по ИБ, InfoWatch: Big Data - это скорее новая возможность быстрой обработки больших и плохо структурированных данных, которую мы получили с развитием информационных технологий. Компьютеры с каждым годом становятся все мощнее, их сети глобальнее, сервисы быстрее и точнее. А становление систем виртуализации и «облаков» дают мощный толчок к совершенствованию распределенных вычислений, необходимых для обработки Big Data. 

Ирина Яхина, руководитель отдела технологических решений, Hitachi Data Systems в России и странах СНГ: Big Data - явление, которое в первую очередь связано с изменениями в объемах и типах информации, поступающей из большого количества разрозненных источников - электронной почты, всевозможных онлайн систем и веб-приложений, камер видеонаблюдения и пр. Их сбор и хранение задача важная, но далеко не единственная, так как возникают и другие проблемы: как обспечить максимально эффективный поиск, анализ и извлечение данных, как гарантировать оперативный доступ к наиболее важной для бизнеса информации, и т.д. Еще одна возможная трудность - полученные данные могут быть представлены в разных не совместимых друг с другом форматах, что значительно усложнит работу с ними. В результате возникает необходимость в разработке специальных решений для оптимизации работы с такими массивами информации. На практике, для многих компаний Big Data начинается примерно с 50 Тбайт, и может достигать петабайтов, а это показывает, что термин имеет не только качественные, но и количественные характеристики. Соответственно, Big Data нельзя в полной мере назвать маркетинговым термином, поскольку объемы данных действительно растут с огромной скоростью и для того, чтобы иметь возможность их хранить и обрабатывать, нужны более совершенные технологии. 

Центральный федеральный округ