בינה מלאכותית חושפת תוצאות מפתיעות לגבי הירידה הקוגניטיבית שרבים ממעיטים בערכה
© Betnechemia.co.il - בינה מלאכותית חושפת תוצאות מפתיעות לגבי הירידה הקוגניטיבית שרבים ממעיטים בערכה

בינה מלאכותית חושפת תוצאות מפתיעות לגבי הירידה הקוגניטיבית שרבים ממעיטים בערכה

User avatar placeholder
- 14.03.2026

בשנים האחרונות חלה קפיצה מרשימה ביכולות של מערכות בינה מלאכותית, במיוחד בתחומים לשוניים ותפקודיים. אך מחקר עדכני בדק האם הכלים החזקים הללו מפגינים סימנים לירידה קוגניטיבית המזכירה תהליכים במוח אנושי – והתשובות מפתיעות ומעוררות מחשבה על מקומם של רובוטים חכמים במציאות היומיומית ובשיח הציבורי.

בדיקת כלים חכמים: האם יש דמיון לדעיכה אנושית?

מחקר שנערך על ידי צוות ישראלי השווה את יכולותיהם של מודלים מתקדמים של בינה מלאכותית במבחנים המשמשים להערכה קוגניטיבית רפואית. הכלים שנבדקו – בהם גרסאות מתקדמות של ChatGPT, ג'מיני וקלוד – נדרשו לעבור סדרת משימות מורכבות, זאת על פי שאלונים מוכרים מתחום הבריאות הנפשית והנוירולוגית. הממצאים חשפו כי למרות ההתפתחות המשמעותית בדורות החדשים של המודלים, היכולות הבסיסיות שלהם עדיין חורגות ממה שמצופה ממערכות "חכמות". הבדיקה כללה התמודדות עם משימות כמו שרטוט קובייה, ציור שעון וחיבור נתיבים – כולן דורשות הבנה חזותית, תכנון וביצוע, תחומים שבהם בינה מלאכותית נותרת מוגבלת.

פער בין ציפיות לתפקוד בפועל

תוצאות המבחן, שנעשה בעזרת כלי MoCA הנפוץ להערכת מצבים כמו דמנציה, הדגישו את ההפרשים בין יכולות המודלים. למשל, ChatGPT 4o קיבל ציון גבוה יחסית, אך עדיין כזה שמכוון ללקות קוגניטיבית קלה, בעוד שמודלי ג'מיני הציגו תוצאות המצביעות – לו היה מדובר בבני אדם – על פגיעה קשה. בצד אחד רואים שיפור דרמטי במודלים החדשים, אך הפער האנושי, במיוחד ביכולת הבנה והפגנת אמפתיה, נותר על כנו. בכל המודלים נצפה כישלון ברור במשימות מרחביות-חזותיות ובביצוע תפקודים מורכבים, עד כדי צורך בהנחיה מפורשת או חוסר ביצוע כלל.

סימפטומים של דמנציה – במכונה, אך לא במוח

הניתוח המעמיק של התשובות הראה שמודלים רבים התקשו בזיהוי מיקום ובמשימות שליטה ניהולית, לעיתים בענווה שאופיינית לחולים עם דמנציה. בנוסף, חוסר רגישות רגשי במספר תשובות מדמה בחלק מהמקרים דפוסים המזוהים עם דמנציה פרונטוטמפורלית. אף על פי כן, החוקרים מבהירים כי אין מדובר באבחנה רפואית אמיתית – פשוט משום שמערכות אלו נשענות על עיבוד סטטיסטי ולא על הבנה ביולוגית-קונספטואלית של העולם.

זהירות ומידתיות – המסר לציבור

המחקר מחדד את הצורך להיזהר מהסתמכות עיוורת על תשובות של בינה מלאכותית, גם בכותרות מתקדמות ביותר. האינטואיציה לצפות מ-LLM "אינטליגנטי" לחשיבה אנושית מתוחכמת עודנה אינה תואמת את המציאות. אף שבכל דור נרשמת התקדמות – דומה לאופן שבו גלגל משדרג רכב – הפרשנות הוויזואלית והבנת סצנות נשארות מאתגרות מאוד ל-AI. רתימת היכולות הללו לשדה הרפואי, המשפטי או הטיפולי דורשת זהירות כפולה. מומלץ לשמור על ספקנות מקצועית ולזכור שבעולם שבו ה"מח" של המערכות הללו הוא בעצם אוטוקורקט מתוחכם, אין מקום לוותר על הביקורתיות האנושית.

המסקנה: קפיצה טכנולוגית בלי מהפכה מושלמת

למרות שהמודלים נראים "אנושיים" בתגובותיהם, עקרונות הפעולה שלהם מבוססים על חיזוי סטטיסטי ולא על תהליכים מוחיים אורגניים. כל דור מביא שיפורים במיומנות ובדיוק, אך האדם נותר הרחק לפני המכונה בהקשרים הדורשים מיומנות מרחבית, אמפתיה והבנת סיטואציות מורכבות. הפער הנוכחי מזכיר כי העתיד הרפואי של בינה מלאכותית עדיין רחוק ממימוש מלא, וכי יש להטיל ספק ולבדוק היטב לפני שמסתמכים עליה – במיוחד בתחום המשפיע ישירות על בריאות או זכויות האדם.

Image placeholder