Un voyage depuis les origines de l'informatique et de l'analyse de données jusqu'à ce que nous appelons aujourd'hui la « pile de données moderne ». Que ce passe t-il après?
Les origines de l'informatique et de l'analyse des données
Les origines de l’informatique et de l’analyse de données ont commencé au milieu des années 1950 et ont commencé à prendre forme avec l’introduction de SQL en 1970 :
- 1954 : Traitement du langage naturel (NLP) - « Expérience Georgetown-IBM », traduction automatique du russe vers l'anglais.
- 1960 : Cartes perforées
- 1970 : langage de requête structuré (SQL)
- Années 1970 : Systèmes de planification financière interactifs – Créer un langage pour « permettre aux dirigeants de construire des modèles sans intermédiaires »
- 1972 : C, LUNAR - L'une des premières applications de l'informatique moderne, un système de recherche d'informations en langage naturel, a aidé les géologues à accéder, à comparer et à évaluer les données d'analyse chimique sur les roches lunaires et la composition du sol.
- 1975 : Express - Le premier système de traitement analytique en ligne (OLAP), destiné à analyser les données commerciales sous différents points de vue
- 1979 : VisiCalc - Le premier tableur informatique
- Années 1980 : Systèmes d'aide à la décision de groupe - « Système de travail collaboratif informatisé »
La « pile de données moderne »
La « Modern Data Stack » est un ensemble de technologies et d'outils utilisés pour collecter, stocker, traiter, analyser et visualiser des données dans une plate-forme cloud bien intégrée. Même si QlikView était pré-cloud, il s'agit du premier exemple de ce que la plupart reconnaissent comme un tableau de bord analytique utilisé par des plateformes modernes comme Tableau et PowerBI :
- 1994 : QlikView - « Analyses basées sur un tableau de bord »
- 2003 : Tableau
- 2009 : Wolfram Alpha – « Moteur de recherche informatique »
- 2015 : PowerBI
- 2017 : ThoughtSpot - « Analyse basée sur la recherche »
Papier, langages de requête, feuilles de calcul, tableaux de bord, recherche, et ensuite ?
Certaines des applications d'analyse les plus innovantes, du moins en termes d'expérience utilisateur, convertissent le langage humain en résultats informatiques :
- Text-to-SQL : une histoire vieille comme le monde, LUNAR a été développé pour la première fois dans les années 70 pour aider les géologues à accéder, comparer et évaluer les données d'analyse chimique en utilisant le langage naturel. Salesforce WikiSQL a introduit le premier recueil complet de données conçu pour le cas d'utilisation texte vers SQL, mais ne contenait que de simples requêtes SQL. L'ensemble de données Yale Spider a introduit une référence pour les requêtes plus complexes et, plus récemment, BIRD a introduit des requêtes « sales » et des scores d'efficacité du monde réel pour créer une référence appropriée pour les applications texte-vers-SQL.
- Texte en langage informatique : Wolfram Alpha, ThoughtSpot
- Text-to-Code : analyse avancée des données ChatGPT
Le « Conversation-Driven Data Analytics » est-il une évolution naturelle ?
- L'UX des interfaces d'analyse modernes telles que la recherche et le chat évolue et devient plus intuitive, rendue possible par le NLP et les LLM.
- Les interfaces d'analyse ont pour origine d'aider les décideurs, mais ces derniers dépendent encore largement des analystes de données.
- De nombreuses requêtes des décideurs sont ponctuelles , mieux adaptées aux « analyses jetables »
- La génération d'informations est un processus créatif dans lequel de nombreuses informations sont obtenues lors de conversations sur les données, éventuellement avec des pairs.
- Le flux de travail d'analyse des données est décousu , de l'imagination de l'analyse à la présentation des résultats.
Remerciements
Dates de la rubrique "Les origines de l'informatique et de l'analyse des données" grâce à https://web.paristech.com/hs-fs/file-2487731396.pdf et http://dssresources.com/history/dsshistoryv28.html .
Également publié ici.