paint-brush
Eine kurze Geschichte der Informatik und Datenanalyse – von Lochkarten bis zum „modernen Datenstapel“von@benscholtz
173 Lesungen

Eine kurze Geschichte der Informatik und Datenanalyse – von Lochkarten bis zum „modernen Datenstapel“

von Benjamin Scholtz3m2024/02/01
Read on Terminal Reader

Zu lang; Lesen

Eine Reise von den Ursprüngen der Informatik und Datenanalyse bis zu dem, was wir heute den „Modern Data Stack“ nennen. Was kommt als nächstes?
featured image - Eine kurze Geschichte der Informatik und Datenanalyse – von Lochkarten bis zum „modernen Datenstapel“
Benjamin Scholtz HackerNoon profile picture


Eine Reise von den Ursprüngen der Informatik und Datenanalyse bis zu dem, was wir heute den „Modern Data Stack“ nennen. Was kommt als nächstes?

Die Ursprünge von Computing und Datenanalyse

Die Ursprünge der Informatik und Datenanalyse liegen in der Mitte der 1950er Jahre und nahmen mit der Einführung von SQL im Jahr 1970 Gestalt an:


  • 1954: Natural Language Processing (NLP) – „ Georgetown-IBM-Experiment “, maschinelle Übersetzung vom Russischen ins Englische.


Diese Datei stammt von Wikimedia und ist unter der Creative Commons Attribution 2.0 Generic-Lizenz lizenziert.

Diese Datei stammt von Wikimedia und ist unter der Creative Commons Attribution 2.0 Generic-Lizenz lizenziert.



  • 1960: Lochkarten


Diese Datei stammt von Wikimedia und ist unter der Creative Commons Attribution 2.0 Generic-Lizenz lizenziert.



  • 1970: Strukturierte Abfragesprache (SQL)
  • 1970er Jahre: Interaktive Finanzplanungssysteme – Erstellen einer Sprache, die es „Führungskräften ermöglicht, Modelle ohne Zwischenhändler zu erstellen“
  • 1972: C, LUNAR – Eine der frühesten Anwendungen moderner Computertechnik, ein Informationsabrufsystem in natürlicher Sprache, half Geologen beim Zugriff, Vergleich und der Auswertung chemischer Analysedaten über Mondgestein und Bodenzusammensetzung
  • 1975: Express – Das erste Online Analytical Processing (OLAP)-System, das Geschäftsdaten aus verschiedenen Blickwinkeln analysieren soll
  • 1979: VisiCalc – Das erste Tabellenkalkulationsprogramm



Diese Datei stammt von Wikimedia und ist unter der Creative Commons Attribution 2.0 Generic-Lizenz lizenziert.


  • 1980er Jahre: Gruppenentscheidungsunterstützungssysteme – „Computergestütztes kollaboratives Arbeitssystem“


Der „moderne Datenstapel“

Der „Modern Data Stack“ ist eine Reihe von Technologien und Tools zum Sammeln, Speichern, Verarbeiten, Analysieren und Visualisieren von Daten in einer gut integrierten cloudbasierten Plattform. Obwohl QlikView vor der Cloud existierte, ist es das früheste Beispiel dessen, was die meisten als Analyse-Dashboard erkennen würden, das von modernen Plattformen wie Tableau und PowerBI verwendet wird:


  • 1994: QlikView – „Dashboard-gesteuerte Analyse“


Diese Datei stammt von Wikimedia und ist unter der Creative Commons Attribution 2.0 Generic-Lizenz lizenziert.


  • 2003: Tableau
  • 2009: Wolfram Alpha – „Computational Search Engine“
  • 2015: PowerBI
  • 2017: ThoughtSpot – „Suchgesteuerte Analyse“

Papier, Abfragesprachen, Tabellenkalkulationen, Dashboards, Suche, wie geht es weiter?

Einige der innovativsten Analyseanwendungen, zumindest im Hinblick auf die Benutzererfahrung, wandeln menschliche Sprache in eine rechnerische Ausgabe um:


  • Text-to-SQL: LUNAR ist eine uralte Geschichte und wurde erstmals in den 70er Jahren entwickelt, um Geologen den Zugriff, den Vergleich und die Auswertung chemischer Analysedaten in natürlicher Sprache zu erleichtern. Salesforce WikiSQL führte das erste umfangreiche Datenkompendium ein, das für den Text-to-SQL-Anwendungsfall erstellt wurde, aber nur einfache SQL-Abfragen enthielt. Der Yale Spider-Datensatz führte einen Benchmark für komplexere Abfragen ein, und zuletzt führte BIRD reale „schmutzige“ Abfragen und Effizienzbewertungen ein, um einen geeigneten Benchmark für Text-zu-SQL-Anwendungen zu erstellen.
  • Text-zu-Computersprache: Wolfram Alpha, ThoughtSpot
  • Text-to-Code: Erweiterte ChatGPT-Datenanalyse


Ist „Conversation-Driven Data Analytics“ eine natürliche Entwicklung?


  • Die UX moderner Analyseschnittstellen wie Suche und Chat entwickeln sich weiter und werden intuitiver, ermöglicht durch NLP und LLMs
  • Analytics-Schnittstellen haben ihren Ursprung in der Unterstützung von Entscheidungsträgern, aber Entscheidungsträger sind immer noch weitgehend auf Datenanalysten angewiesen
  • Viele Anfragen von Entscheidungsträgern erfolgen ad hoc und eignen sich am besten für „Wegwerfanalysen“.
  • Die Generierung von Erkenntnissen ist ein kreativer Prozess , bei dem viele Erkenntnisse in Gesprächen über Daten gewonnen werden, möglicherweise mit Kollegen
  • Der Datenanalyse- Workflow ist unzusammenhängend , von der Vorstellung der Analyse bis zur Präsentation der Ergebnisse

Danksagungen

Termine für den Abschnitt „The Origins of Computing and Data Analytics“ dank https://web.paristech.com/hs-fs/file-2487731396.pdf und http://dssresources.com/history/dsshistoryv28.html .