paint-brush
Nicht KI ist das Problem, sondern Big Techvon@theantieconomist
977 Lesungen
977 Lesungen

Nicht KI ist das Problem, sondern Big Tech

von The Anti-Economist8m2023/11/17
Read on Terminal Reader

Zu lang; Lesen

Betrachtet man die Geschichte der großen Technologiegiganten und ihre mangelnde Datensicherheit, welche sind die tatsächlichen Risiken der Verbreitung von KI? Es scheint, dass es viel mehr mit der Nutzung von Daten durch große Unternehmen zu tun hat als mit der KI selbst.
featured image - Nicht KI ist das Problem, sondern Big Tech
The Anti-Economist HackerNoon profile picture


Ist künstliche Intelligenz so beängstigend, wie wir glauben gemacht haben, oder werden nur die großen Technologiegiganten, die eine Erfolgsbilanz unethischer Datennutzung vorweisen können, KI weiterhin auf die gleiche Weise nutzen, wie sie unsere anderen Daten genutzt haben: um Füllen Sie ihre Taschen so weit wie möglich.


Selbst diejenigen mit dem rudimentärsten Verständnis der künstlichen Intelligenz verstehen, dass ihre Stärke in ihrer Fähigkeit liegt, Daten zu verstehen, und wenn Sie möchten, dass ein Sprachmodell oder eine KI intelligenter oder für einen bestimmten Zweck trainiert wird, sind Daten das Schlüsselelement. Genau hier beginnt die Überkreuzung von KI und Big Tech, da die Technologiegiganten voraussichtlich über die größten Cloud-Datenreserven verfügen, die zum Trainieren und Entwickeln von KI-Modellen verwendet werden können.


Seit 2022 haben Google , Microsoft und Amazon alle Milliarden investiert und starke Beziehungen zu den fortschrittlichsten KI-Entwicklungsunternehmen unserer Zeit aufgebaut, kurz nachdem die erste Version von Chat GPT veröffentlicht wurde.


Selbst bei solchen Geschäften geraten die Mitarbeiter häufig in ethische Dilemmata im Zusammenhang mit dem Einsatz von KI in großen Technologieunternehmen. Dario Amodei verließ Open AI, offenbar aufgrund von Sicherheits- und ethischen Bedenken hinsichtlich der Beteiligung von Microsoft. Kurz darauf gründete er Anthropic, um sich der anderen bösen Stiefschwester zuzuwenden und nahm rund $ ein 1,25 Milliarden Dollar in Investitionen von Amazon und2 Milliarden Dollar von Google.


Angesichts der turbulenten Vergangenheit (und Gegenwart) der Big-Tech-Unternehmen, der Datenschutzethik und ihrer enormen Unterstützung für künstliche Intelligenz ist es derzeit wahrscheinlich, dass man befürchtet, dass das Problem nicht in der Entwicklung von KI liegt, sondern in den Datenschutzbedenken, die wir haben sind nur allzu vertraut.


Bei der Untersuchung der Beziehung zwischen Technologiegiganten, Datenschutzbedenken, den Fähigkeiten von KI-Sprachmodellen und staatlichen Vorschriften ist es wichtig, die Risiken zu berücksichtigen, die mit dem hohen Potenzial von KI verbunden sind, wenn sie von Unternehmen mit böswilligen Absichten eingesetzt werden.



Die KI-Revolution

Sprachlernmodelle (LLMs) oder künstliche Intelligenz, wie die meisten Menschen sie nennen, sind eine massive Kombination einer Reihe von Algorithmen, die zusammen in der Lage sind, autonom zu agieren, um Ergebnisse auf der Grundlage der Informationen zu erzielen, auf denen sie trainiert wurden.


KI ist kein so neues Werkzeug, wie die meisten denken; Viele KI-Tools kommen in unserem Alltag zum Einsatz. Von den Karten in unseren Autos über Social-Media-Anzeigen bis hin zu unseren Netflix-Empfehlungen nutzen sie alle KI-Tools, um unsere Routine und Gewohnheiten zu lernen und Empfehlungen und Vermutungen darüber abzugeben, womit wir uns wahrscheinlich beschäftigen werden.


Bei richtiger Anwendung hat künstliche Intelligenz die Macht, die Art und Weise zu verändern, wie wir in unserem täglichen Leben mit Technologie interagieren. Es könnte nicht nur unser Leben komfortabler machen, sondern auch die Zugänglichkeit für diejenigen verändern, die sonst nicht so einfach mit der Realität interagieren können wie die meisten anderen. Wer zum Beispiel sehbehindert ist, könnte das tun KI nutzen um die Welt um sie herum für eine bessere Navigation zu erzählen.


KI wird bereits zur Optimierung vieler verschiedener Prozesse eingesetzt, darunter E-Commerce, Gesundheitstechnologie, Finanzen, Landwirtschaft und Bildung. Den Menschen die Arbeit erleichtern. Die Fähigkeit, die automatisierten Aufgaben auszuführen, die wir als Menschen bereits erledigen, bedeutet, dass wir nicht so viel Zeit mit alltäglichen Aufgaben verbringen müssen, die einen großen Teil der Arbeit vieler Menschen ausmachen, und uns auf die Bereiche konzentrieren müssen, in denen menschlicher Einfallsreichtum von größter Bedeutung ist.


KI erleichtert es mir zum Beispiel, angesichts der Bauarbeiten am Broadway und der Verkehrsbehinderung in der Innenstadt heute den besseren Weg zur Arbeit zu finden, was bedeutet, dass ich noch 10 Minuten länger schlafen und mir einen Kaffee kochen kann, bevor ich gehe , was meinen Tag viel besser machen und es mir ermöglichen wird, bei der Arbeit produktiver zu sein.


Es ist wichtig zu bedenken, dass KI im Gegensatz zu anderen Tools, die zur Steuerung ihrer Funktionen ausschließlich auf Chips angewiesen sind, auf große Mengen an Informationen trainiert wird, die sie dann lernt und abrufen kann, wenn wir ihr bestimmte Eingabeaufforderungen geben.


Hier beginnt weitgehend die Beziehung zwischen der Entwicklung von KI und Big Tech, da Google, Amazon und Microsoft über einige der größten Speicher menschlicher Daten verfügen (wahrscheinlich auch Ihre), die sie zum Trainieren ihrer KI-Modelle nutzen können und nutzen.


Es ist ein wenig alarmierend, dass die Unternehmen, die mit unseren Daten bewiesen haben, dass sie am wenigsten vertrauenswürdig sind, die Vorreiter bei der Entwicklung einer noch intelligenteren KI sind.


Unnötig zu erwähnen, dass es ein Rezept für eine Katastrophe zu sein scheint. Und wir, die Verbraucher, haben am meisten zu verlieren.


Die dunkle Seite des künstlichen Mondes

Viele von uns in der Technologiewelt sind vorsichtig optimistisch, was generative KI-Tools für die Zukunft bereithält, und wir sehen weiterhin inspirierende Innovationen mit KI-Technologie mit großem Potenzial.


Verstehen Sie mich nicht falsch, KI kann eine sehr gute Sache in unserer Welt sein und wird derzeit zur Entwicklung entscheidender Technologien eingesetzt, die vielen in ihrem täglichen Leben helfen, aber die Bedenken und Vorbehalte, die die meisten Menschen gegenüber KI haben, müssen angemessen sein bei der Einführung solch leistungsstarker Technologie in unser tägliches Leben berücksichtigt werden.


So profitorientiert sie auch sind, Big Tech Giants haben die Verantwortung, den Datenschutz ihrer Verbraucher zu respektieren (eine Verantwortung, die sie haben). ständig außer Acht gelassen ) und insbesondere im Hinblick auf KI, die mithilfe von Daten trainiert wird, ist es äußerst wichtig, sich der Art von Daten, die Sie zum Trainieren der Sprachmodelle verwenden, sehr bewusst zu sein. Manche Menschen möchten eigentlich nicht, dass ihre Facebook-Fotos, Instagram-Geschichten, Standortverläufe, Finanzdaten usw. zum Trainieren eines KI-Modells verwendet werden. Mehr noch mit sensibleren Daten wie medizinischen, biometrischen, finanziellen und Standortdaten.


Ist KI-Hysterie fehl am Platz?

Wir haben auf jeden Fall einen gesehen Aufnahme In der Hysterie um die Leistungsfähigkeit der KI und in der Sorge, dass sie Arbeitsplätze stiehlt, an Bewusstsein gewinnt und schließlich die Menschheit überholt, aber realistisch gesehen sollten wir uns davor fürchten, dass Google unsere Daten gegen uns verwendet, um den Gewinn zu maximieren. Das ist etwas, was sie getan haben, aber das Potenzial, unsere Daten gegen uns auszunutzen, wird gravierender, wenn wir anfangen, uns mit KI zu befassen, die jeden Aspekt Ihres Lebens versteht und aufzeichnet und den falschen Leuten zugänglich ist.


Risiken, wenn KI-Modelle anhand sensibler/personenbezogener Daten trainiert werden

Es gab bereits Vorfälle, bei denen Personen berichteten , dass mithilfe von Amazon Alexa gesammelte Daten angefordert und ohne Haftbefehl an die Strafverfolgungsbehörden weitergegeben und in strafrechtlichen Ermittlungen gegen sie verwendet wurden.


Es gab auch mehrere Vorfälle, bei denen personenbezogene Daten zur Förderung politischer Ziele und möglicherweise zur Verbreitung von Fehlinformationen verwendet wurden. Eine Vielzahl von Datenschutzverletzungen, bei denen die von großen Technologieunternehmen gesammelten Daten in die falschen Hände geraten und Kriminellen Zugang zu den persönlichen Daten von Millionen von Menschen verschaffen.


Die Verwendung personenbezogener Daten zum Trainieren von KI-Modellen birgt das Risiko potenzieller Probleme mit Datenschutzverletzungen aufgrund unbefugten Zugriffs bei der Dateneingabe und dem Datenaustausch. Wenn die Daten während des langwierigen Prozesses, in dem sie zum Trainieren der KI-Modelle verwendet werden, nicht sorgfältig und sorgfältig behandelt werden, können sie viele Male hin- und hergereicht werden, wobei Personen unkontrollierten Zugriff auf personenbezogene Daten haben. Beim Umgang mit derart komplexen Informationen in solch großen Mengen ist es nicht unwahrscheinlich, dass es aufgrund von Sicherheitslücken zu Datenschutzverletzungen kommt, die zur unbefugten Weitergabe sensibler Informationen führen.


Die Bedeutung des KI-Trainings anhand eines vielfältigen Datensatzes liegt an der sehr realen und bereits erlebten Wahrscheinlichkeit, dass ein KI-Modell aufgrund des Trainings, das es erhalten hat, Vorurteile und Diskriminierung aufweist. Nehmen wir zum Beispiel die Gesichtserkennung: Ein KI-Modell kann verwendet werden, um zu erkennen, wer in einem bestimmten Geschäft stiehlt, und die Sicherheit über einen Zeitraum von drei Jahren zu erhöhen. Wenn die Personen, die in den Sicherheitsaufnahmen zu sehen sind, überwiegend einer bestimmten Rasse angehören, beginnt das KI-Modell möglicherweise vorherzusagen, dass die Wahrscheinlichkeit, dass jemand außerhalb dieser bestimmten Gruppe von Personen stiehlt, größer ist. Wenn die Trainingsdaten nicht vielfältig und repräsentativ sind, kann es für das KI-Modell schwierig sein, sein Lernen genau auf eine vielfältige Bevölkerung zu übertragen.


Wenn KI-Modelle nur auf eine Reihe demografischer Merkmale trainiert werden, besteht ein erhebliches Risiko potenzieller Verzerrungen im Sprachmodell selbst, basierend auf der Verzerrung in den Daten. Das Problem ist hier relativ einfach; Wenn bestimmten Gruppen mehr personenbezogene Daten zur Verfügung stehen, wie können wir dann Vorurteile innerhalb der KI verhindern? Dies kann zu Ausschlussergebnissen für unterrepräsentierte Gemeinschaften im Datensatz führen.


Hinzu kommt der Mangel an Einwilligung und Transparenz darüber, ob den Nutzern mitgeteilt wird, dass ihre Daten zur Verwendung beim Training von KI-Modellen gesammelt werden. Heutzutage, wo wir ständig mit Informationen bombardiert werden und oft eine Entscheidungslähmung erleben, 91 % der Menschen lesen die Geschäftsbedingungen nicht durch, wenn sie sich für eine bestimmte Anwendung anmelden, und wirft daher die Frage auf, ob Verbraucher tatsächlich genau wissen, wofür sie sich in Bezug auf ihre Datenrechte anmelden. Dies kann eine große Rolle dabei spielen, das Vertrauen der Benutzer zu untergraben Studien Bereits jetzt stellen sie eine erschreckend geringe Vertrauenswürdigkeit fest: 42 % der Menschen haben ein geringes Vertrauen in große Technologieunternehmen oder vertrauen ihnen jetzt noch nicht.


Es ist eine sehr reale Bedrohung, dass selbst diese großen Technologiegiganten anfällig für Cyberangriffe sind, die zu massiven Datenschutzverletzungen führen jüngste Geschichte Dies hat sich eingehend gezeigt, und diese Risiken werden mit der zunehmenden Verwendung und Übertragung großer Datenmengen zum Training von KI nur noch größer. Tech-Giganten wie Facebook haben eine angespannte Geschichte mit solchen Cyber-Angriffen und dem Verlust von Benutzerdaten, und der Verbraucher fragt sich, ob es sinnvoll ist, eine weitere Schwachstelle einzuführen, wenn die Tech-Giganten nicht einmal in der Lage sind, mit dem umzugehen, was bereits läuft ihre Teller.


Ein weiteres potenzielles Problem, das wir in den kommenden Jahren mit der Verbreitung der KI-Technologie sehen könnten, ist die Neuidentifizierung anonymisierter Daten, die wiederum sensible Informationen preisgeben könnten, die Einzelpersonen gefährden könnten.


Abschließende Gedanken

Es macht absolut Sinn, dass viele Menschen große Vorbehalte gegenüber künstlicher Intelligenz und ihren möglichen Auswirkungen auf die Arbeitswelt haben (obwohl sie wahrscheinlich sowieso nichts ändern würde), aber ich denke, dass es in unserem natürlichen menschlichen Instinkt liegt, allem Neuen gegenüber skeptisch zu sein , vergessen wir, dass das Problem schon immer da gewesen sein könnte.


Es ist nicht allein die Schuld des durchschnittlichen Arbeitnehmers. Diese milliardenschweren Konzerne haben wahrscheinlich erhebliche Anstrengungen unternommen, um sicherzustellen, dass wir sie nicht so sehr hassen, wie wir sollten, aber es ist dennoch recht interessant zu sehen, wie Menschen dämonisieren das Werkzeug, das zuschlägt, und nicht die Hand, die es führt. Unabhängig davon, ob Sie sich mit KI auskennen oder nicht, wissen Sie wahrscheinlich immer noch um die Datenschutzmängel dieser Technologiegiganten, und daher sollte es keine Überraschung sein, wenn wir in den nächsten fünf Jahren Kontroversen über den unethischen Einsatz von KI erleben Verfolgen Sie jeden Ihrer Schritte und verdienen Sie Geld damit.



Hauptbild von Adi Goldstein auf Unsplash