Eine Reise von den Ursprüngen der Informatik und Datenanalyse bis zu dem, was wir heute den „Modern Data Stack“ nennen. Was kommt als nächstes?
Eine Reise von den Ursprüngen der Informatik und Datenanalyse bis zu dem, was wir heute den „Modern Data Stack“ nennen. Was kommt als nächstes?
Die Ursprünge von Computing und Datenanalyse
Die Ursprünge der Informatik und Datenanalyse liegen in der Mitte der 1950er Jahre und nahmen mit der Einführung von SQL im Jahr 1970 Gestalt an:
1954: Natural Language Processing (NLP) – „ Georgetown-IBM-Experiment “, maschinelle Übersetzung vom Russischen ins Englische.
1960: Lochkarten
1970: Strukturierte Abfragesprache (SQL)
1970er Jahre: Interaktive Finanzplanungssysteme – Erstellen einer Sprache, die es „Führungskräften ermöglicht, Modelle ohne Zwischenhändler zu erstellen“
1972: C, LUNAR – Eine der frühesten Anwendungen moderner Computertechnik, ein Informationsabrufsystem in natürlicher Sprache, half Geologen beim Zugriff, Vergleich und der Auswertung chemischer Analysedaten über Mondgestein und Bodenzusammensetzung
1975: Express – Das erste Online Analytical Processing (OLAP)-System, das Geschäftsdaten aus verschiedenen Blickwinkeln analysieren soll
1979: VisiCalc – Das erste Tabellenkalkulationsprogramm
Der „Modern Data Stack“ ist eine Reihe von Technologien und Tools zum Sammeln, Speichern, Verarbeiten, Analysieren und Visualisieren von Daten in einer gut integrierten cloudbasierten Plattform. Obwohl QlikView vor der Cloud existierte, ist es das früheste Beispiel dessen, was die meisten als Analyse-Dashboard erkennen würden, das von modernen Plattformen wie Tableau und PowerBI verwendet wird:
Papier, Abfragesprachen, Tabellenkalkulationen, Dashboards, Suche, wie geht es weiter?
Einige der innovativsten Analyseanwendungen, zumindest im Hinblick auf die Benutzererfahrung, wandeln menschliche Sprache in eine rechnerische Ausgabe um:
Text-to-SQL: LUNAR ist eine uralte Geschichte und wurde erstmals in den 70er Jahren entwickelt, um Geologen den Zugriff, den Vergleich und die Auswertung chemischer Analysedaten in natürlicher Sprache zu erleichtern. Salesforce WikiSQL führte das erste umfangreiche Datenkompendium ein, das für den Text-to-SQL-Anwendungsfall erstellt wurde, aber nur einfache SQL-Abfragen enthielt. Der Yale Spider-Datensatz führte einen Benchmark für komplexere Abfragen ein, und zuletzt führte BIRD reale „schmutzige“ Abfragen und Effizienzbewertungen ein, um einen geeigneten Benchmark für Text-zu-SQL-Anwendungen zu erstellen.
Ist „Conversation-Driven Data Analytics“ eine natürliche Entwicklung?
Die UX moderner Analyseschnittstellen wie Suche und Chat entwickeln sich weiter und werden intuitiver, ermöglicht durch NLP und LLMs
Analytics-Schnittstellen haben ihren Ursprung in der Unterstützung von Entscheidungsträgern, aber Entscheidungsträger sind immer noch weitgehend auf Datenanalysten angewiesen
Viele Anfragen von Entscheidungsträgern erfolgen ad hoc und eignen sich am besten für „Wegwerfanalysen“.
Die Generierung von Erkenntnissen ist ein kreativer Prozess , bei dem viele Erkenntnisse in Gesprächen über Daten gewonnen werden, möglicherweise mit Kollegen
Der Datenanalyse- Workflow ist unzusammenhängend , von der Vorstellung der Analyse bis zur Präsentation der Ergebnisse