Путешествие от истоков вычислений и анализа данных к тому, что мы сейчас называем «Современным стеком данных». Что будет дальше?
Путешествие от истоков вычислений и анализа данных к тому, что мы сейчас называем «Современным стеком данных». Что будет дальше?
Истоки вычислений и анализа данных
Истоки вычислений и анализа данных начались в середине 1950-х годов и начали формироваться с появлением SQL в 1970 году:
1954: Natural Language Processing (NLP) — « Джорджтаунский эксперимент IBM », машинный перевод с русского на английский.
1960: Перфокарты
1970: Язык структурированных запросов (SQL)
1970-е: Интерактивные системы финансового планирования . Создайте язык, который «позволит руководителям создавать модели без посредников».
1972: C, ЛУННАЯ - Одно из первых применений современных вычислений, система поиска информации на естественном языке, помогла геологам получить доступ, сравнить и оценить данные химического анализа лунных пород и состава почвы.
1975: Express — первая система онлайн-аналитической обработки (OLAP), предназначенная для анализа бизнес-данных с разных точек зрения.
1979: VisiCalc — первая компьютерная программа для работы с электронными таблицами.
1980-е: Системы поддержки групповых решений – «Компьютеризированная система совместной работы»
«Современный стек данных»
«Современный стек данных» — это набор технологий и инструментов, используемых для сбора, хранения, обработки, анализа и визуализации данных на хорошо интегрированной облачной платформе. Хотя QlikView существовал до облака, это самый ранний пример того, что большинство считает аналитической информационной панелью, используемой современными платформами, такими как Tableau и PowerBI:
1994: QlikView — «Аналитика на основе информационной панели».
Бумага, языки запросов, электронные таблицы, информационные панели, поиск, что дальше?
Некоторые из наиболее инновационных аналитических приложений, по крайней мере с точки зрения пользовательского опыта, преобразуют человеческий язык в некий вычислительный результат:
Преобразование текста в SQL. История LUNAR стара как мир. Впервые она была разработана в 70-х годах, чтобы помочь геологам получать доступ, сравнивать и оценивать данные химического анализа, используя естественный язык. Salesforce WikiSQL представила первый обширный сборник данных, созданный для варианта использования преобразования текста в SQL, но содержащий только простые запросы SQL. Набор данных Yale Spider стал эталоном для более сложных запросов, а совсем недавно BIRD представила реальные «грязные» запросы и показатели эффективности для создания подходящего эталона для приложений преобразования текста в SQL.
Преобразование текста в вычислительный язык: Wolfram Alpha, ThoughtSpot
Преобразование текста в код: расширенный анализ данных ChatGPT
Является ли «Аналитика данных на основе диалога» естественной эволюцией?
UX современных аналитических интерфейсов, таких как поиск и чат, развивается и становится более интуитивно понятным благодаря NLP и LLM.
Аналитические интерфейсы созданы для того, чтобы помочь лицам, принимающим решения, но лица, принимающие решения, по-прежнему в значительной степени полагаются на аналитиков данных.
Многие запросы лиц, принимающих решения, носят разовый характер и лучше всего подходят для «одноразовой аналитики».
Генерация идей — это творческий процесс , в ходе которого многие идеи получаются в ходе разговоров о данных, возможно, с коллегами.
Рабочий процесс анализа данных разрознен : от представления анализа до представления результатов.