HINWEIS: Architektur befindet sich in aktiver Entwicklung: Ereignisse über Kafka, Byte über ein Media Gateway in MinIO, Analysen in ClickHouse und eine dünne Read API für die GUI. Ingest schreibt WARCs; Zusammenfassungen sind sidecar-Objekte, die durch den genauen Text-Hash gekennzeichnet sind. BillsTechDeck Viele Male im Leben müssen wir etwas tun, nicht weil es einfach ist, sondern weil es schwierig ist. Ich bin in einem dieser Räume. Mein Traum: ein Programm zu bauen, um Tech-Nachrichten zu holen und zu korrelieren. Interessiert an der nächsten Gen erweiterte Realität? BillsTechDeck kann Ihnen helfen, Informationen darüber zu finden! Die Welt ist weit offen für die Arten von Gadgets und Tech-Ankündigungen, die Sie von einer korrelierten Quelle erhalten können, um Tech-Trends zu bewerten und vielleicht ein Gesamtbild zu erhalten, das Sie mit energischem Googlen umgehen kann. Es ist ein Problem, das ich bei der Suche nach Informationen über den Vision Pro von Apple oder als ich auf neue Switch 2 Nachrichten wartete. Lassen Sie uns mit einem Überblick über das System beginnen, indem wir ein Flussdiagramm (rohr) zeigen. Einige Überlegungen: Alle Pfeile, die auf die Nachricht hinweisen, fließen in verschiedene Reihen. Grundsätzlich möchte ich Nachrichten, Trends, Quellen, Analysen, Zusammenfassungen an einem Ort haben, um eine kohärente Datenmenge aufzubauen, mit der ich den Zeitgeist von Tech-Nachrichten, Gadgets und Trends verstehen kann. Mein Versuch, etwas Kohärentes zu erreichen: Nun, ich bin nur ein Hobbyist.So mache ich keinen Anspruch, dass ich etwas weiß.Ich habe Spaß, was die wahre Freude ist.Lassen Sie uns einen hohen Überblick tauchen in dieses System. Ich habe das neu gemacht viel sooooo Lasst uns die Schritte brechen (auslassen Verwandte Schritte : Kafka Der Harvester nimmt Eingaben aus dem IngressOrca, das auf Informationen aus dem FeedbackService basiert. Es nutzt MinIO als eine Möglichkeit, WARCs zusammenzustellen und auch in der Lage zu sein, reiche Medien auf verteilte Weise zu verarbeiten. Medien werden im MinIO-Cluster (Media Cluster) gespeichert, das auf sha256- und sha1-Tasten arbeitet (im Fall von WARCs, aber sie haben auch sha256-Hash-Tasten für Systemkongruenz) Der Sanitizer bekommt Arbeitsplätze aus der Harvester und zieht Medien aus dem Medien-Gateway zu sanieren. Wenn es schmutzig ist, halten wir es immer noch, um Forensik in einer kontrollierten Umgebung durchzuführen OCR läuft auf reichen Medien basierend auf Jobs von Kafka spaCy (NER) läuft auf alles. spaCy übermittelt einen gekoppelten Job an den spaCy Sanity Checker, und wenn es gesund ist, wird es an einen Scoring-Dienst gesendet, um zu entscheiden, ob eine automatische phi4-Summary gerechtfertigt ist, wenn es nicht gerechtfertigt ist, wird es einfach an die Korrelationsmaschine gesendet. Phi4 wird auf bestimmten Datenstücken ausgeführt, die entweder vom Scoring-Dienst oder vom Benutzer initiiert werden. Die Correlation Engine läuft über alles Jedes Teilsystem wird robuste Audits und Log-Checks haben, die vom LogHandler und im LogSilo/ElasticSearch abgewickelt werden. Die Subsysteme/Händler, die Zugang zu Medien benötigen, werden mit dem MinIO-Cluster durch einen ruhigen Anruf über einen MediaGateway interagieren. Verschiedene Handler sprechen mit dem GUIHandler, der die GUI anzeigt. Der GUIHandler kann ControlEvents einreichen (für phi4 Zusammenfassung bitten, Sachen anpassen) Der FeedbackService spricht mit dem HistoricalHandler, um aus dem HistoricalSilo zu ziehen, um ein Modell zu trainieren, das den IngressOrca (Orchestrator) bessere Informationen geben wird, um besser zu wählen, wann, wo und wie wir bessere Informationen ziehen können, um verschwendete Ressourcen auf Bunk-Daten zu reduzieren Alle Daten werden in einem MinIO-Cluster (MediaCluster) gespeichert und über ruhige Anrufe zugegriffen Anrufe an den GUIHandler werden durch ruhige Anrufe gemacht Alle Teilsysteme werden von Kubernetes verpackt und orchestriert. Harvester Eintritt Feedback Dienstleistung Sanitizer Harvester OCR Der Spaziergang (NER) Wahnsinnshandler Phi4 Korrelationsmotor LogHandler LogSilo / Elastische Suche Mediathematik Mediencluster MediaGateway Guihandler Guihandler Kontrollen Feedback Dienstleistung Historischer Händler Historisch IngressOrca MediaCluster Guihandler I'm sure I left out some detail, but that's the gist. Die Ernte ist: Daten sammeln gathering data Wie sammeln wir unsere Nachrichten über das schlanke Pixel Fold 3? We need to pull it from online! Various sources require various data harvesting methods. Big problems we run into is Alle Websites haben auch spezifische Strukturen (wie kompliziert). Zum Glück haben wir ein unglaubliches Ökosystem hinter der Datenerfassung. Bot-Erkennung, DDoS-Filterung, Captchas, fehlerhafte Informationen Python ist ein Sprache für diesen Zweck zu verwenden und hat eine lebendige Gemeinschaft arbeitet fleißig, um Hobbyisten wie mir zu helfen, die entscheidenden Informationen über die Steam Deck 2 Tech-Spezifikationen und andere Chats über es zu erfassen (wie unglaublich). Unglaublich Recon What is the site structure? What is the site's flow? What tricks are companies like Akamai pulling to impede my ability to get my precious tech snippets? What values change and where? When does my cookie become invalid depending on an abnormal flow? Does the javascript try to fool me? Is it dynamic, obfuscated or check for tampering? Are my user agents okay and when do I rotate them? How do I handle headers? How do I handle TLS Fingerprinting? This list is getting long so I'll just add "heuristics" Dies ist ein sehr engagierter Prozess und erfordert eine gute Menge an Aufmerksamkeit.So müssen die Ziele, um meine Tech-Nachrichten zu bekommen, im Allgemeinen kuratiert und erfasst werden. und um wertvolle Informationen über Websites und ihre Heuristik zu sammeln, ist wichtig. Fallen Mit dem Proxy CAPTCHAs *: image recognition tasks* Tradition CAPTCHAs *: Machine learning looking at user behavior to determine bot behavior* ReCAPTCHA *: pesky things that run in the background by grumpy site admins looking to stop me* Invisible CAPTCHAs Tradition CAPTCHAs ReCaptcha Invisible CAPTCHAs Während eine kleinere Liste, diese sind definitiv ein riesiges Hindernis und auf keinen Fall eine erschöpfende Liste. alle Lösungen für diese Probleme erfordern komplexe Lösungen. Ich könnte weitermachen, aber ich glaube, dass man Dinge hinzufügt, wie die Verwendung renommierter Wohnproxies, mobile Proxies, die Beschränkung der Raten, die Anerkennung und Minderung der Fingerabdrücke von Geräten und schließlich Honigpots. Deshalb brauchen wir unterschiedliche Ansatzstufen: Graduierte Response Crawling Strategie "Test mit einem Pelletgewehr, steigen Sie zu einer Ordinance, wenn es fubar'd ist." "Test mit einem Pelletgewehr, steigen Sie zu einer Ordinance, wenn es fubar'd ist." : Level 1 Pellet Gun aiohttp scrapy Use for static pages, public APIs, or weakly protected endpoints. Low noise, low cost. : Level 2 Scoped Rifle Playwright + stealth plugins Use for JS-rendered sites, light bot defenses, simple captchas. Mimics real users, simulates browser behavior. Level 3: Ordinance Crawl4AI / Nodriver , heavyCAPTCHA solving , Mobile proxies Use when you hit: invisible captchas, anti-bot JavaScript puzzles, DOM obfuscation, or flow control defenses. Heavy but necessary for hard targets. Pellet Waffe Gewehr geschossen Ordnung Warum das zählt Effizienz: Brennen Sie keine Playwright-Zyklen, wenn Curl funktioniert. Avoid raising alarms unnecessarily. Stealth: Langlebigkeit: Laufen für Monate ohne Verbote, nicht Wochen. Obwohl wir jetzt die Komplexität einführen, die gut ist. Zu Beginn werden wir sehr einfache Regeln haben. Wir können bessere Anrufe an bessere Orte tätigen, da wir und Muster, um uns zu führen. Historisch Historische Daten Historisch Dieser Teil des Systems ist vermutlich der und wird eine ständige Aktualisierung erfordern, weil das Katze-und-Maus-Spiel zwischen Weenies-Laufseiten mich von meinen süßen, süßen Samsung-Nachrichten hält. am wichtigsten Ich habe einen Plan entwickelt, um einzunehmen, einzunehmen, einzunehmen und zu überprüfen, bevor ich mich wirklich um das Ziehen von Echtzeitdaten kümmern muss. Asynchron und nicht blockierend sein. Internet Archive Python wrapper Wenn ich gerade begann, viele aktuelle Daten zu ziehen, hätte ich keine gute Gewissheit, dass meine Korrelationen etwas bedeuten. This approach allows me to ingest and focus on the rest of the system without having to build a crawler that will require a lot of changes. I feel building a crawler would eat too much time at the start and leave the rest of the system derelict. Keine Daten sollten vertraut werden: Die Kunst von Menschen, die Ihr System vergiften wollen Die Kunst von Menschen, die Ihr System vergiften wollen Was ist das Problem beim Abrufen von Daten aus dem Internet? Nun, jeder, der seit langer Zeit im Internet ist, weiß über die schmutzigen Trolle. Schauspieler, die Sie und Ihr edles Ziel haben, die neuen Smartphone-Informationen zu bekommen. Let's highlight some concerns (not an exhaustive list, just a taste) Malice in action Javascript Payloads (XSS, Embedded goodness, etc) Worry about data exfiltration Browser Exploits Redirection and Phishing PDF Macros and Embedded Object Can do spooky things like "remote code execution" Info disclosures Initiate connections to scary C2's Handling various filetypes Office Document macros EXE/DLL (less of a concern since they'd be filtered Malicous archive files that contain executables and path traversals Image/Media file: hiding stegonagraphy or utilizing dirty dirty codecs Data Integrity Tampered data Spoofed sources People looking to poison my system with generally bad data Einige Dinge, die ich aus dieser Liste gelassen habe (wie Server, die versuchen, meine Ernte zu DDoS, indem sie Tonnen von unnötigen Daten, um meine Gefühle zu verletzen). We first off want to isolate and contain all data we haven't vetted. A separate black box that either resides on a different network system or is . While occurs, it has to be weighed with the caveats that come with air-gapping (which I won't bore anyone with). Luftgapper VLAN Sprung One level is running rules on a file. Which is fine, and a great starting point. We have tools for macro analysis. We have Wir können überprüfen, dass Dateien das sind, was sie sind (um sicherzustellen, dass die schmutzigen Trolle die Exes nicht verbergen). . We check hashes against threat feeds. Verletzung PDF Statische Codeanalyse We also have at the other extreme. It until we get past the Internet Archive phase. It comes with Es bietet dynamische Analyse, Verhaltensberichterstattung, Bedrohungsdetektion... , der Einige schmutzige Dateien können Sandbox-Umgebungen erkennen. Andere können ihnen entkommen. Es ist ressourcenintensiv und hat eine komplexe Einrichtung. Es ist für eine Weile zu ressourcenintensiv und komplex. Cuckoo won't be implemented bedeutend But it can be thwarted! it can be thwarted! Schließlich müssen wir uns Sorgen über Datenvergiftung machen.Ich habe keinen klaren Weg, wie man damit umgeht.Es gibt eine breite Palette von Forschungsarbeiten, die ich durchführen werde, um das Problem und die Ansätze besser zu verstehen. No one said . I write this not a definitive writing of what I'm doing. More so highlighting the amount of ways bad hombres can me and my system. Sicherheit ist einfach staggering Kompromiss I have yet to see a lock that can't be picked. I can only make it as complicated as I can. With that in mind, I am designing this part with . Performance, memory safety and I just like it a lot. This will be a Arbeit.Medien werden abgeholt und an die to interact with the (Von dem Minio Cluster) Rust Tokio Mediathematik MediaCluster Mediathematik MediaCluster In conclusion: In conclusion: In conclusion: For the majority of time, are für Je weiter ich die süßen, süßen Äpfel auf den Baum legen kann und the better. bad actors looking low hanging fruit minimize my attack surface If the data is skanky we quarantine it so we can analyze it. We document it and store the analytics revolving around it in the . HistoricalSilo Historisch Für Phi4 Medium: summarizing for busy people like me summarizing for busy people like me come with a lot of challenges. Resource wise, content wise. However, they also have the ability to give us cogent summaries of potentially lengthy pieces of information. That's why I'm using (needed something more robust). LLM's Ph4 Medium Why would I choose this? Goldilocks size and performance Medium is bigger than mini. Medium has 14 billion parameters. Competitive enough with larger models but more efficient Optimiert für meine Anwendungsfälle Suitable for local deployments Cost effective (since I'm a lowly cabbage farmer) Flexibility in deployments I need something local and powerful and it fits the bill. Having it being its own docker image makes it easy. Another positive is my ability to fine tune it (for my greedy need for information on the new iPhone). Caveats! Hallucination Tis the cost of doing business. For this I may have to implement and RAG system. My own guys are working against me! *sigh* English In the end this is not an overall large deal since I'm not multilingual. Though it adds complexity should I want to expand data sources to places I can't understand I'm pigeonholing myself into consuming English. My own guys are working against me! Englisch Was macht A So wie ich? headstrong cabbage farmer Sanitätsprüfung durchgeführt werden. Things like volume yields : Checks if the summary's length is reasonable. Meaning Did Phi-4 produce a 150-word summary as requested, or did it return a single sentence or a 10-page novel? . Cardinality or categorical value checks : Checks if the entities (people, places, etc.) in the summary are a valid subset of the entities in the original article. Primary defense against hallucination. Meaning Does the summary mention 'Germany' when the source text only ever mentioned 'France'? . Completeness and fill rate checks Checks for the omission of critical information. Meaning: The original article mentioned three key companies, but the summary only includes one. Is the summary missing vital information? Uniqueness checks Checks for repetitive or redundant content within the summary. Meaning: Did the model get stuck in a loop and repeat the same sentence three times? . Range checks Checks if numerical data in the summary is factually correct based on the source. Meaning: The source text says profits were '$5 million,' but the summary says '$5 billion.' Is this a catastrophic numerical error? Presence checks The most basic check: did the service return anything at all? Meaning: Did the Phi-4 service time out or return an empty string instead of a summary? Data type validation checks. Checks if the summary adheres to the requested structure. Meaning: I asked for a JSON object with a 'title' and 'key_points' array. Is the output valid JSON with those exact keys? Consistency checks The deepest check for factual grounding and logical contradiction. Meaning: The source text says 'the project was cancelled,' but the summary implies it's ongoing. Does the summary contradict the facts of the original article? Things like volume yields Kardinalität oder kategorische Wertprüfungen Vollständigkeit und Füllrate-Kontrollen Einzigartigkeitsprüfung Range Überprüfung Presence checks Datentyp Validierungskontrollen durchführen. Consistency checks Diese Liste kann schnell wie Benjamin Buford Blue benennen verwendet für Shrimp werden, so werde ich es dort oben. Dies wird auf der Grundlage des Scoring-Services automatisch ausgeführt oder manuell angefordert . moi Entitäten mit spaCy erfassen: Die grabbing relevanten Dingen grabbing pertinent things We are at the Die Sektion. Spazier Which model do I choose? bietet eine Vielzahl von prätrainierten Modellen, alle mit ihren eigenen Anwendungen. so out of the box Ich werde wahrscheinlich eine Gewohnheit fein tun müssen and add Zu Beginn muss ich Daten annotieren, um mein Modell zu trainieren (es gibt Open-Source-Tools, um diesen Prozess etwas zu automatisieren). . spaCy general web content Es wird keinen Tech-Jargon erkennen NER model Gewöhnliche Komponenten recognize entity types Ich werde sein müssen (in der and ) und to go in and do and (i.e. "Apple" the company and "apple" the fruit). With that comes the possibility of building a custom entity linking component or external tool integration (hopefully not). fluent Regelnbasiertes Matching matcher EntityRuler Will braucht entity linking disambiguation Since I'm only worried about English at the moment, I am blessed to be ignorant of language detection. Past that I will need to consider performant things like und . When not in use turn it off! Batch Verarbeitung component disabling Unter Berücksichtigung möglicher Laufen mit Ich werde überlegen müssen, Basierende Modelle und based models, and also have to consider considerable RAM utilization. Parallelprozesse Pfeil4 Die CPU GPU Es gibt . The use of custom attributes will be a must. I will have to plan for out-of-domain text which I will inevitably run into and is crucial for me to know how to handle. pre-processing, post-processing and possibly integrating external logic and models Und schließlich, und fast am wichtigsten: Sanitätsprüfung durchgeführt werden. Schema Validierung Überprüfung der richtigen Datentypen Paying close attention to the behavior around critical fields Defining expected data types Establishing acceptable ranges with things like dates and word counts Define allowed values Definieren Sie Vollständigkeitsschwellen Consideration of cross field consistency rules Viele der oben erwähnten sanitätsprüfungsartikel gelten hier, aber in einem detaillierteren Sinne, wenn es um entitäten geht. die liste geht weiter, und wiederum wird es zu einer auflistung von nutzungen für krevet an forrest gump. I feel okay about the completeness of this section. Data correlation: making sense of things making sense of things in this system is Ich brauche eine Sprache, die mir einige Gedächtnisgarantien bietet und mich davon abhält, Anfängerfehler zu machen. at first. I thought it through and arrived back at . I'm simply not an experienced Programmierer und würde wahrscheinlich Dinge implementieren, die mein System stören würden. Data correlation incredibly C++ Rust mit C++ Basically, Entitäten nehmen von und verbindet die Punkte. es wird to . I needed some real granularity and functionality for statistics in correlation. An earlier draft incorporated RocksDB, which wasn't robust enough with recent developments. Rust spaCy Klickhaus Schreiben / Lesen / Shoppen relevanten things So stats will be important (yay!). An way of coding is key and I'll need to be very deliberate with what I do, why I do it and how I implement things. I'm going to be using for this part since I will have a lot of I/O processes talking to . idomatic Tokio Klickhaus Wir nehmen grundsätzlich alle Einrichtungen und on them an compare it . run rich analysis Historische Daten I consider the following things: Is this relationship statistically significant? Ist diese Korrelation mehr als nur „Zufall“? Is this significance worth creating a graph relationship with? Gibt es faktische Unterstützung, um diese spezifische Beziehung zu betonen? Also würde ich Dinge tun müssen, wie eine für Verbindungen. es wäre auch eine gute Idee, , a measure that scores how much more likely two entities are to appear together than by random chance. Where high and negative scores tell me great things about a correlation. p-Wert Pointwise Mutual information Die Verwendung von Statistiken ist unerlässlich, um Lärm zu filtern. und tausendmal zusammen erscheinen wird, aber diese Verbindung ist und particularly insightful. Statistics help us prove that a rarer connection, like a specific tech company and a government agency, is far more significant even if it only appears a few times. Also, thinking of the : Sein Weil es ein . „Apple“ 'iPhone' obvious not Weißhaus not significant white building Past getting into some concepts I feel out of the scope of this overview, I'll leave it at that. Die Daten: the backbone the backbone So what do I do with all this data about hot new tech items? I hoard it. Ich werde mehrere Datenbanken haben (PostgreSQL, ClickHouse, Neo4j, MinIO) Alle Daten werden über die Einer wird handhaben Operationen, ein which will be used to store artifact data Zwei werden sein (in der und Es ist viel, aber jede DB hat ihre eigene Stärke und ich glaube, eine einfache would have significant drawbacks. Datenverwalter Neo4J Postgressk (basically a metadata registry) Klickhaus Historisch Korrelationen SQL Server für alles Historisch CorrelationSilo Datenstrukturen zu erstellen, tables and primary keying will be tantamount in (Der Komplex among other things). The Es wird eine Quelle von viel Betrachtung, Tränen und Frustration sein. Ein gutes Design wird sich in Spaden auszahlen. Ich nähere mich dies später, da ich das Gefühl habe, dass ich eine viel bessere Vorstellung davon habe, was ich weiter in dem System brauche, das ich bekomme. gut Klickhaus gespeicherte Verfahren Künstlerisch Künstlerisch ist ein anderes Tier. ich fühle mich so lange wie mein it in it should be painless (famous last words). My feelings are that I essentially want to try and make it as dumb as possible. I want to be able to point to point to my correlation engine and understand the Wenn ich anfing, Schichten von Komplexität und Korrelationslogik hinzuzufügen, werden die Daten mehr gekoppelt und abzüglich des Wertes meiner Korrelationsmotor Neo4J correlator isn't phoning relatively „Warum?“ Die Es wird ein DB hat viele granuläre Daten aus Dingen wie: Historisch Klickhaus HistoricalSilo Where we got good data Welche Suchanfragen lieferten die besten Daten Welche Sammelmethoden funktionierten am besten für welche Datenquelle Wo / wann und möglicherweise warum wir schmutzige Daten erhalten haben Analytics about that dirty data Es gibt wahrscheinlich viel mehr, und ich werde sie finden, wenn ich zu diesem Punkt komme. Die cluster will be way less painful to implement than the others. I still do need to make sure everything is belt and suspenders. MinIO Die Datenbanken werden eine intensive Erfahrung sein. Es wird eine Tonne mehr geben. GUI: Webapp Zeit! The Es wird ein Zuerst wollte ich dies zu einer Desktop-App machen, aber ich erkannte, dass ich letztendlich mehr Menschen verwenden möchte. Es wäre keine gute Option. GUI Webapp Pizzeria6 Using a I get to access such a wide variety of libraries. I have incredible access to information that may not be available if I used a GUI. When I initially settled on , meine Ziele waren sehr unterschiedlich. ich wollte ehrlich gesagt einfach nicht einen gui in python schreiben. ich habe keinen guten grund, warum ich es nicht tue. es ist perfekt fähig. es war nur eine persönliche vorliebe. Webapp Pizzeria6 Mit diesem knurrenden Gefühl in meinem Darm suchte ich nach einer anderen Gui-Option. Um das hinzuzufügen, war es schwierig, wenn nicht unmöglich, gute Beispiele dafür zu finden, was die Menschen mit den Gui-Bibliotheken gebaut haben. Ich hätte definitiv nur vorwärts gedrückt haben können, aber ich wollte nichts benutzen und dann in Arbeit setzen und zu der Erkenntnis kommen, dass meine Vision mit einem bestimmten Gui nicht möglich ist. LOT Also ging ich mit einem Es gibt eine Menge Vorteile, aber jetzt muss ich wirklich an der Spitze der Sicherheit sein. jedoch muss ich mich nicht um diese Komplexität kümmern, bis ich glaube, dass ich bereit bin, mein Projekt zu zeigen, und vielleicht könnte ich dann einige coole Leute finden, mit denen ich kodieren kann. webapp Basically, the gui talks to the which talks to the , , der and do control events like be able to run certain jobs. Sie müssen abgeschlossen sein und darüber nachdenken, wie sie Arbeitsplätze in . GuiHandler LogHandler Kunsthandler Historischer Händler Kontrollen Kafka GuiHandler LogHandler Kunsthandler HistoricalHandler Kontrollen Wir müssen in der Lage sein, alle Arten von reichen Medien zu bedienen. It feels more prudent to just do a webapp. Die letzten Worte: last considerations Letzte Überlegungen I didn't cover everything. Eine Sache, die ich hinzufügen möchte, ist meine Wahl von ... . for this project right now is indeed overkill. It wasn't my initial choice. However, I ran into a snag during development when my initial choice became untenable. So, Dort habe ich gelandet. Dieser Beitrag schließt jetzt in 4.5k Wörter Kafka Kafka Kafka An added bonus is that it looks good on a resume. Ich entscheide mich immer dafür, ein Entwickler zu sein. wenn . Ich werde nicht Aber es würde schön aussehen. There is a ton of work ahead of me to be able to breathe life into my love of tech trends. Do I Um eines davon zu tun? need No. Ich denke nur, es ist unglaublich Spaß. Alle Architektur- und Flow-Optionen unterliegen Veränderungen.In diesem Blog werde ich keinen Code bereitstellen (ich werde deine Augen retten). There are tradeoffs everywhere. When do I scale Kafka? Implementiere ich einen Ressourcenorchestrator, damit ich mein Gerät nicht brenne? How granular do I get with defining "valuable" data? Was mache ich im System, um nutzlose Daten zu löschen? Brauche ich spät in der Nacht Sitzungen, um Darts zu verbrennen? Was mache ich, wenn ich kompromittiert bin? Wie kompensiere ich Datenvergiftung? Vexing. Das Vexing. Obwohl ich mich verärgert habe, habe ich eine : time and no boss to ride me about failing. Geheime Waffe This will take years. And that's okay. Dieses Projekt kann für den Leser äußerlich verrückt und ehrgeizig sein. I'm self aware enough to acknowledge that. Obwohl ich sagen möchte, ich bin unglaublich an allen Bereichen des Wissens innerhalb des Systems selbst interessiert. Kein 100 Meter Sprint. . Der lange Marathon Bit nach Bit Bit nach Bit Ich möchte von einer Lektion lernen, die ich von Spruce ist ein Mann, der die Adresse des UPS-Hauptquartiers in seine eigene, eine Wohnung in Chicago geändert hat. Dies war für Monate erlaubt, wo Herr Spruce ~ $ 65k in Bargeld auf sein Konto einzahlen konnte, das für UPS bestimmt war. Herr Spruce Wie passt das? A lesson I learned from this story is Mr. Spruce hat sich keine Sorgen gemacht, ob er die Adresse des größten Logistikunternehmens der Welt wirklich in seine eigene Wohnung wechseln könnte. . Audacität And it worked Audacität Und es funktionierte While I feel like I can definitely shed Mr. Spruce's lack of impulse control and absence of foresight, I can internalize the audacity to try. Having a complete and utter disregard for what a consensus may deem "feasible" I am able to embark on a journey of learning untethered by a tradition steeped in reason that unequivocally says "you can't". Vielleicht kann ich es nicht.Ich würde lieber groß scheitern, als nicht zu versuchen.Für das muss ich Mr. Spruce's Ansatz verkörpern, absolut keinen Scherz zu geben. Wenn Sie diesen Blog gelesen haben, hoffe ich, dass Sie etwas gelernt haben. viel Liebe, Bill „Wizard“ Anderson