יש אלוהים

AI: אינטליגנציה מלאכותית או סתם הצגה?

כידוע, Chat GPT לא מסוגל לעבור את מבחן טיורינג, אך האם היה מוכיח אינטליגנציה אילו הצליח? האם מחשב מסוגל באמת לחשוב ולהבין את מה ששואלים, או רק פולט מידע באופן משכנע? דניאל בלס מבהיר את נקודת הדמיון שבין המחשב לבין המוח האנושי...

  • פורסם י' אייר התשפ"ג |עודכן
אא

דוגמה לשאלה שקיבלתי לאחרונה: "שאלתי את הבינה המלאכותית האם אלוקים קיים, והיא אמרה שזה עניין של אמונה, ואין ראיה חד משמעית לקיומו. איך עלינו להתייחס לתשובה זו? הרי ידוע שיש לבינה המלאכותית ידע רב ביותר, ואין לה רגשות או דעות קדומות אשר יגרמו לה לענות תשובה שגויה...".

הבינה המלאכותית המכונה Chat GPT אינה מסוגלת לחשוב בכוחות עצמה, ואינה משיבה תשובות אובייקטיביות. אסביר מדוע:

1. את כל מאגרי הידע שלה, לא השיגה תוכנת GPT ע"י היסק לוגי וחקירה עצמית. במקום זאת, התוכנה מצטטת מידע קיים מאתרים רבים ברחבי האינטרנט, כך שמקורות האינפורמציה שלה - אינם שלה, אלא לקוחים מבני אדם שכתבו תשובות אלה (מכאן נובעת "אנושיותן" של התשובות, בגלל שבמקור אנשים כתבו אותן). אין לתוכנה מחקר עצמאי ולא דעות משלה על העולם. אם, לדוגמה, אתרים רבים באינטרנט היו כותבים שיש דרקונים ופיות, היתה התוכנה מצטטת זאת בתור עובדה.
 
2. כיצד יודע צ'ט GPT איזה מידע לצטט מתוך אתרים רבים כל כך? הרי ישנה כמות אדירה של מידע באינטרנט, אמין יותר ופחות. גם בנקודה זו, התוכנה אינה מסוגלת להחליט בכוחות עצמה אילו תשובות להעדיף. בחירת התשובות נעשתה מראש על ידי מאות אלפי התכתבויות עם צוות משיבים של החברה Open-AI, והם שעיצבו את התשובות של התוכנה באמצעות שיטה של הצבעה ודירוג (שיטת רייטינג). עובדה זו מופיעה בראשי התיבות של התוכנה: "Chat Generative Pre-training Transformer", או בעברית: צ'ט יוצר ע"פ אימון-מוקדם, או מנגנון למידה מאומן-מראש שיוצר. כלומר, בשמה של התוכנה נאמר כי היא תוכנתה מראש בידי אנשים, ואומנה להשיב את תשובותיה.
אנשים נבחרים אלה קבעו מראש מה יהיו התשובות שהתוכנה תשיב על שאלות מדעיות, פוליטיות ואמוניות! התוכנה בנויה לסדר באופן סטטיסטי מאגרי מידע מהאינטרנט לפי דירוג, על פי העדפותיהם של המתכנתים עד שהצליחה לחזות את העדפותיהם בצורה טובה. ברמה הבסיסית, הצ'ט בנוי באופן דומה להשלמה אוטומטית שיש בטלפונים חכמים, אך עם טקסט רב בהרבה.
 
3. לאור האמור, קל להבין מדוע צ'ט GPT איננו אובייקטיבי. ניכר שצוות מתכנתיו משתייך לשמאל הפוליטי, אשר אימנו אותו להשיב על פי אמונותיהם הפוליטיות. לדוגמה, הצ'ט יאמר לנו שגבר יכול להיות אישה, ואישה יכולה להיות גבר, כיוון שזו הפוליטיקה של השמאל בימינו, למרות שאמונה זו לא נתמכת ע"י ממצאים מדעיים, ואף סותרת ביולוגיה בסיסית.
אציין דוגמה אישית: שאלתי את הצ'ט מה הופך אבולוציה לעובדה מדעית? קיבלתי רשימה של טענות. לאחר שעברתי עימו טענה אחר טענה והראיתי את חוסר הבסיס שלה, הודה לבסוף שהפרכותיי הם באמת "אתגרים" (Challenges) על התיאוריה, אך המשיך לטעון שהיא עובדה מדעית (זאת למרות שאלו היו הטענות היחידות בגללן טען שאבולוציה הינה עובדה מדעית). כלומר, הצ'ט תוכנת להגן על תיאוריית האבולוציה בכל מחיר, ולא מסוגל לשנות את דעתו גם בפני סתירות והפרכות.
במקרים אחרים, הצ'ט הלך במעגלים כדי להגן על אמונות פוליטיות (בתחילה טען שטענה א' מוכיחה את אמונתו, ולאחר שהופרכה אמר שטענה ב' מוכיחה את אמונתו; כאשר הופרכה גם טענה ב', חזר לטעון שטענה א' מוכיחה את אמונתו; כאשר הזכרתי לו שגם הטענה הראשונה כבר הופרכה, אמר שטענה א' ו-ב' ביחד מוכיחות את אמונתו... בקיצור, התוכנה חסרת הבנה, וחייבת להגן על הדעות שתיכנתו בה).
 
4. כפי שהוסבר בסרטון, למחשב אין תודעה, לא רצון ולא רגשות, גם אם מסוגל ליצור הצגה מעניינת באמצעות חיקוי סטטיסטי של התנהגויות אנושיות. מי שיודע עובדה זאת, מבין כי צ'ט GPT אינו חושב בכוחות עצמו, ואין לו כלל אינטליגנציה.

תגיות:דניאל בלסבינה מלאכותיתאינטליגנציה מלאכותית

כתבות שאולי פספסת

הידברות שופס

מסע אל האמת - הרב זמיר כהן

60לרכישה

מוצרים נוספים

מגילת רות אופקי אבות - הרב זמיר כהן

המלך דוד - הרב אליהו עמר

סטרוס נירוסטה זכוכית

מעמד לבקבוק יין

אלי לומד על החגים - שבועות

ספר תורה אשכנזי לילדים

לכל המוצרים

*לחיפוש ביטוי מדויק יש להשתמש במירכאות. לדוגמא: "טהרת המשפחה", "הרב זמיר כהן" וכן הלאה