כפי שקורה בדרך כלל עם טכנולוגיות מתקדמות במהירות, AI העניק השראה עצומה. , ו חלק מהם ראויים, - אבל התעשייה מקבלת תשומת לב.מתחנות החומרה הנסתרות לענקי פינטק למוסדות ציבוריים, צוותים עובדים עם חום על אסטרטגיית ה- AI שלהם. FOMO פוד פוידס חלקם לא "איך אנו משתמשים בינה מלאכותית ולימוד מכונה כדי להשתפר במה שאנחנו עושים?" "איך אנו משתמשים בינה מלאכותית ולימוד מכונה כדי להשתפר במה שאנחנו עושים?" לעתים קרובות יותר מאשר לא, חברות מוכן ל- AI. אולי הם שכרו את שלהם תוצאות פחות כוכבים, או אולי אבל התרחיש הנפוץ ביותר הוא שהם עדיין לא בונים את התשתית ליישם (והרוויח את היתרונות של) הבסיסי ביותר. אלגוריתמים ופעילויות, הרבה פחות . not מדען הנתונים הראשון ספרות נתונים נתונים מדעיים מכונת למידה בתור יועץ למדעי נתונים/אינטליגנציה אינטלקטואלית, הייתי צריך להעביר את המסר הזה מספר פעמים, במיוחד בשנתיים האחרונות. קשה להיות כיסוי רטוב בקרב כל ההתלהבות הזאת סביב השדה שלך, במיוחד אם אתה משתף את ההתלהבות הזאת. מסכימה הנה הסבר שהשתמע הכי הרבה: Think of AI as the top of a פירמידת הצרכים . Yes, self-actualization (AI) is great, but you first need food, water and shelter (data literacy, collection and infrastructure). פירמידת הצרכים הצרכים הבסיסיים: האם אתה יכול לספור? בתחתית הפירמידה יש לנו אילו נתונים אתם צריכים ומה זמין?אם מדובר במוצר ממוקד למשתמש, האם אתם רשומים את כל אינטראקציות המשתמש הרלוונטיות?אם מדובר במעבד, אילו נתונים מגיעים ואיך? זה מה שהפך את ההתקדמות האחרונה בלימוד מכונה אפשרית. data collection נתונים לאחר מכן, איך זה דרך המערכת? האם יש לך זרמים אמין / ETL ? איפה אתה מאחסן את זה, וכמה קל זה לגשת ולנתח? הוא אמר (כמעט עשור) כי זרימת נתונים אמינה היא המפתח לעשות כל דבר עם נתונים. data flow ג'יי קריפס [חוץ מזה: חיפשתי ציטוט מדויק מצאתי אותו ב' אני אוהב לוגו לאחר מכן שמתי לב כי, פרק אחד מעל, הוא עושה את ההשוואה המדויקת של הייררכיה של מאסלו של הצרכים, עם "זה שווה לציין את המובן מאליו" זורק שם למדידה טובה (תודה ג'יי!). פוסט על מה מדען נתונים עושה: לפני כמה ימים, שון טיילור התגלה פירמידת הצרכים שלו במדעי הנתונים (באירוניה נקראת המשולש הלא משולב של מדע הנתונים), אשר, כמובן, שונה לחלוטין. אני אוהב לוגו פוסט התגלה רק כאשר הנתונים זמינים, אתה יכול זה כולל את ה"נקות נתונים" המפורסם, צד מדויק של מדע הנתונים שיהיה הנושא של פוסט אחר.זה כאשר אתה מגלה שאתה מפספס הרבה נתונים, חיישנים שלך אינם אמינים, שינוי גרסה פירושו אירועים שלך נופלים, אתה מפרש לא נכון דגל - ואתה חוזר כדי לוודא את הבסיס של הפירמידה הוא מוצק. explore and transform כאשר תוכל לחקור ולנקות את הנתונים באופן אמין, תוכל להתחיל לבנות את מה שחושב באופן מסורתי כ- BI או BI. : להגדיר מדדים כדי לעקוב, העונה שלהם רגישות לגורמים שונים. אולי לעשות כמה סיווג משתמשים גס ולראות אם משהו יוצא החוצה. בשלב זה, אתה גם יודע מה אתה רוצה לחזות או ללמוד, ואתה יכול להתחיל להכין את על-ידי יצירת תוויות, או באופן אוטומטי (איזה לקוחות השתמשו?) או עם בני אדם במעגל. analytics features training data זה גם כאשר אתה מוצא את הכי מרגש ומשכנע שלך אבל זה גם הנושא של פוסט אחר. data stories אני יכול לספור, אז מה? יש לנו נתוני אימון – כמובן, עכשיו אנחנו יכולים לעשות למידה מכונה? אולי, אם אתה מנסה לחזות באופן פנימי את צ'ורן; לא, אם התוצאה תהיה מול הלקוח. מסגרת קיימת, כך שנוכל ליישם באופן הדרגתי כדי למנוע אסונות ולקבל הערכה קפדנית של ההשפעות של השינויים לפני שהם משפיעים על כולם. במקום (למערכות המלצות, זה יהיה לדוגמה "הפופולרי ביותר", ואז "הפופולרי ביותר עבור המשתמש שלך" - "הסטריאוטיפ לפני האישיות" מאוד מעצבן אך יעיל). experimentation simple baseline heuristics פשוטים הם קשה להפתיע להתגבר, והם יאפשרו לך להתמודד עם המערכת סוף-סוף ללא קופסאות שחורות מסתוריות ML עם היפרפרפרמטרים hypertuned באמצע. בשלב זה, אתה יכול ליישם אלגוריתם ML פשוט מאוד (כגון רגרסיה לוגיסטית או, כן, חלוקה), ואז לחשוב על אותות חדשים ותכונות שיכולות להשפיע על התוצאות שלך. נתוני מזג האוויר והדירוג הם הוגו-טוסים שלי. ולא - כמה שהוא חזק, למידה עמוקה לא עושה זאת באופן אוטומטי בשבילך. להביא אותות חדשים (יצירת תכונות, לא הנדסת תכונות) הוא מה שיכול לשפר את הביצועים שלך על ידי קפיצות וגבולות. תכניסו את AI! אתה עשית את זה. אתה מכשיר. ETL שלך הוא הוממינג. הנתונים שלך מאורגנים ונקים. יש לך לוח טבלאות, תוויות ותכונות טובות. אתה מדד את הדברים הנכונים. אתה יכול להתנסות מדי יום. יש לך אלגוריתם בסיסי שמתבצע סוף סוף-ל-סוף והוא פועל בייצור - ואתה שינה את זה עשרות פעמים. אתה מוכן. ללכת קדימה ולנסות את כל העדכנים והגדולים ביותר שם - מגלגלגלים את עצמך כדי להשתמש בחברות המתמחות בלימודי מכונה. אתה יכול לקבל כמה שיפורים גדולים בייצור, או שאתה לא יכול. במקרה הגרוע ביותר, אתה לומד שיטות חדשות, לפתח דעות וניסיון מעשי איתם, ולספר ללקוחות שלך ועל מאמצי אז מה לגבי MVPs, Agile, Lean וכל זה? בדיוק כמו כאשר אתה בונה MVP מסורתי (מוצר בעל חיים מינימלי), אתה מתחיל עם חלק קטן ורקעי של המוצר שלך ואתה עושה את זה לעבוד היטב סוף-סוף. אתה יכול לבנות את הפירמידה שלה, ואז לגדול את זה אופקי. לדוגמה, ב Jawbone, התחלנו עם נתוני שינה ובנו את הפירמידה שלה: מכשירים, ETL, ניקוי & ארגון, קלטת תוויות והגדרות, מדדים (מהו הממוצע # של שעות אנשים ישנים כל לילה? מוצרי נתונים מבוססים על למידה מכונה (זיהוי שינה אוטומטי). לאחר מכן אוכל, מזג אוויר, אימונים, רשתות חברתיות ותקשורת – אחד בכל פעם. The data science hierarchy of needs is not an excuse to build disconnected, over-engineered infrastructure for a year. סיפורי נתונים הרחבה לשאול את השאלות הנכונות וליצור את המוצרים הנכונים זה רק על איך שאתה לא אם אתה (בגלל סיבות פוליטיות או כלכליות) could should ההבטחה של כלים למידה מכונה ‘ ’ מה לגבי Amazon API או TensorFlow או ספריית קוד פתוח אחרת? כל זה הוא מדהים ומועיל מאוד. (חברות מסוימות בסופו של דבר להתאים אישית את הפירמידה כולה, כך שהם יכולים להציג את עבודתם. הם גיבורים.) עם זאת, תחת השפעתו החזקה של ה- AI הנוכחי, אנשים מנסים להתחבר לנתונים שהוא מלוכלך ומלא חסרונות, אשר נמשך שנים תוך שינוי בפורמט ומשמעות, זה עדיין לא מובן, זה מאורגן בדרכים שאינן הגיוניות, ומצפים כי כלים אלה יטפלו בזה באופן קסום.