היסטוריה קצרה של בינה מלאכותית

בראשית ימי הבינה המלאכותית ניסו מדעני המחשב לשחזר היבטים של המוח האנושי במחשב. זהו סוג האינטליגנציה שהוא חומר המדע הבדיוני - מכונות שחושבות, פחות או יותר, כמונו. סוג זה של אינטליגנציה נקרא, באופן לא מפתיע, מובנות. ניתן להשתמש במחשב עם הבנה כדי לחקור כיצד אנו חושבים, לומדים, שופטים, תופסים ומבצעים פעולות נפשיות.

מחקר מוקדם על מובנות התמקד בדוגמנות חלקים מהעולם האמיתי והנפש (מתחום המדענים הקוגניטיביים) במחשב. זה מדהים כאשר לוקחים בחשבון שניסויים אלה התרחשו לפני כמעט 60 שנה.

מודלים מוקדמים של מודיעין התמקדו בנימוקים דדוקטיביים כדי להגיע למסקנות. אחת מתוכניות ה- AI המוקדמות והידועות ביותר מסוג זה הייתה תיאורטיקת הלוגיקה, שנכתבה בשנת 1956 כדי לחקות את כישורי פיתרון הבעיות של בן אנוש. תיאורטיקת ההיגיון הוכיחה עד מהרה 38 מתוך 52 המשפטים הראשונים בפרק ב 'של Principia Mathematica , למעשה שיפרה משפט אחד בתהליך. לראשונה הוכח בבירור כי מכונה יכולה לבצע משימות שעד לנקודה זו נחשבות לדרוש אינטליגנציה ויצירתיות.

עד מהרה המחקר פנה לעבר סוג אחר של חשיבה, חשיבה אינדוקטיבית. חשיבה אינדוקטיבית היא בה מדען משתמש בבחינת נתונים ומנסה להגיע להשערה להסביר אותם. כדי ללמוד חשיבה אינדוקטיבית, חוקרים יצרו מודל קוגניטיבי המבוסס על המדענים העובדים במעבדה של נאס"א, ועזרו להם לזהות מולקולות אורגניות תוך שימוש בידע שלהם בכימיה אורגנית. תוכנית דנדרל הייתה הדוגמה האמיתית הראשונה לתכונה השנייה של בינה מלאכותית, אינסטרומנטליות , מערכת טכניקות או אלגוריתמים לביצוע משימה של חשיבה אינדוקטיבית, במקרה זה זיהוי מולקולה.

דנדרל היה ייחודי מכיוון שהוא כלל גם את בסיס הידע הראשון, קבוצה של כללי אם / אז שתפסו את הידע של המדענים, לשימוש לצד המודל הקוגניטיבי. צורת ידע זו תיקרא מאוחר יותר  מערכת מומחים . היות ושני סוגי ה"אינטליגנציה "זמינים בתוכנית אחת אפשרו למדעני המחשב לשאול," מה הופך מדענים מסוימים להרבה יותר טובים מאחרים? האם יש להם כישורים קוגניטיביים מעולים, או ידע גדול יותר? "

בסוף שנות השישים התשובה הייתה ברורה. הביצועים של דנדרל היו כמעט לחלוטין פונקציה של כמות ואיכות הידע שהושגו מהמומחים. המודל הקוגניטיבי היה קשור רק חלש לשיפור הביצועים.

מימוש זה הוביל לשינוי פרדיגמה גדול בקהילת הבינה המלאכותית. הנדסת ידע התפתחה כמשמעת למודל תחומים ספציפיים של מומחיות אנושית באמצעות מערכות מומחים. ומערכות המומחים שיצרו חרגו לעתים קרובות מביצועיו של כל מקבל החלטות אנושי אחד. הצלחה מדהימה זו עוררה התלהבות רבה ממערכות מומחים בקהילת הבינה המלאכותית, הצבא, התעשייה, המשקיעים והעיתונות הפופולרית.

ככל שמערכות מומחים זכו להצלחה מסחרית, החוקרים הפנו את תשומת ליבם לטכניקות למידול מערכות אלו ולהפוך אותן לגמישות יותר בתחומי הבעיה. בתקופה זו פיתחו קהילת ה- AI עיצוב מונחה עצמים ואונטולוגיות היררכיות שאומצו על ידי חלקים אחרים בקהילת המחשבים. כיום אונטולוגיות היררכיות הן לב ליבה של גרפי הידע, אשר רואים התחדשות בשנים האחרונות.

כאשר החוקרים התמקמו בצורת ייצוג ידע המכונה "כללי ייצור", צורה של לוגיקה פרדיקטית מסדר ראשון, הם גילו שהמערכות יכולות ללמוד אוטומטית; כלומר, המערכות יכולות לכתוב או לשכתב את הכללים עצמם כדי לשפר את הביצועים על סמך נתונים נוספים. דנדרל שונתה וקיבלה את היכולת ללמוד את כללי הספקטרומטריית מסה בהתבסס על הנתונים האמפיריים מניסויים.

ככל שמערכות מומחים אלה היו טובות, היו להן מגבלות. בדרך כלל הם הוגבלו לתחום בעיה מסוים ולא יכלו להבחין בין חלופות סבירות מרובות או להשתמש בידע אודות מבנה או מתאם סטטיסטי. כדי לטפל בכמה מהנושאים הללו, החוקרים הוסיפו גורמי וודאות - ערכים מספריים שהצביעו עד כמה עובדה מסוימת נכונה.

תחילתו של שינוי הפרדיגמה השני ב- AI התרחשה כאשר החוקרים הבינו שניתן לעטוף גורמי ודאות במודלים סטטיסטיים. ניתן להשתמש בסטטיסטיקה והסקת Bayesian למודל מומחיות בתחום בתחום הנתונים האמפיריים. מנקודה זו ואילך, הבינה המלאכותית תישלט יותר ויותר על ידי למידת מכונה.

יש בעיה. למרות שטכניקות לימוד מכונה כגון יער אקראי, רשתות עצביות או GBT (עצים המועצמים בשיפוע) מניבות תוצאות מדויקות, הן כמעט קופסאות שחורות בלתי חדירות. ללא תפוקה מובנת, מודלים של למידת מכונה פחות שימושיים ממודלים מסורתיים בכמה מובנים. לדוגמה, עם מודל AI מסורתי, מתרגל עשוי לשאול:

  • מדוע המודל עשה את הטעות הזו?
  • האם המודל מוטה?
  • האם אנו יכולים להוכיח תאימות לתקנות?
  • מדוע המודל אינו מסכים עם מומחה בתחום.

לחוסר המובנות יש השלכות הכשרה גם כן. כאשר מודל נשבר ואינו יכול להסביר מדוע, הדבר מקשה על התיקון. להוסיף דוגמאות נוספות? איזה דוגמאות? למרות שיש כמה פשרות פשוטות שאנחנו יכולים לבצע בינתיים, כמו קבלת תחזיות פחות מדויקות בתמורה למובנות, היכולת להסביר מודלים של למידת מכונה התגלתה כאחת מאבני הדרך הגדולות הבאות שיושגו ב- AI.

הם אומרים שההיסטוריה חוזרת על עצמה. מחקר מוקדם של AI, כמו של ימינו, התמקד בדוגמנות חשיבה אנושית ומודלים קוגניטיביים. שלושת הנושאים העיקריים העומדים בפני חוקרי AI מוקדמים - ידע, הסבר וגמישות - נותרים מרכזיים גם בדיונים עכשוויים על מערכות לימוד מכונה.

הידע לובש כעת צורה של נתונים, ואת הצורך בגמישות ניתן לראות ב שבירות של רשתות עצביות, כאשר הפרעות קלות בנתונים מניבות תוצאות שונות באופן דרמטי. גם הסברנות הופיעה בראש סדר העדיפויות של חוקרי AI. זה מעט אירוני כיצד, 60 שנה לאחר מכן, עברנו מנסיונות לשכפל את החשיבה האנושית לשאול המכונות כיצד הן חושבות.