Google Bard הוא התקדמות מעניינת של AI, אבל במצבה הנוכחי, סביר להניח שהיא תתרום למידע מוטעה.
בינה מלאכותית גנרטיבית זועמת לאחרונה, שהתחילה על ידי ChatGPT ו בעקבות Microsoft Bing. מאז, לכאורה, גוגל האצה את פיתוח מודל הצ'אט של AI משלה ושחררה את בארד בצורה מוגבלת, ועד כה, נראה שזה מוצר נחות משאר המתחרים. הוא נאבק בשאלות בסיסיות, משתמש במקורות מפוקפקים, ובאופן כללי, נראה שהוא מוצר חצי אפוי.
כדי להיות הוגנים לחלוטין כלפי גוגל, כאבי הגדילה האלה הם כאלה שגם בינג התמודד איתם, ולבארד יש רק רַק מְשׁוּחרָר. נוסף על כך, גוגל לא העמידה את בארד כמנוע חיפוש כמו שמיקרוסופט דיברה על בינג. אף על פי כן, אם בארד היה טוב מספיק כדי להיות מנוע חיפוש, אני חושב שגוגל כנראה תפרסם אותו כאחד. גוגל לא רוצה להישאר מאחור, ואם היה לה מתחרה למנועי חיפוש להתמודד מול בינג, כמעט בטוח היה.
עם כל זה נאמר, בארד הוא הצצה לעתיד שגוי להחריד. זה כבר התקלקל בכמה הזדמנויות, וכשגוגל מתווכחת על ה-AI שלה להיות פחות לא יציב, זה הופך להיות קשה לכוונן אותו כך שיהפוך גם לשימושי. כדי שבינה מלאכותית תהיה שימושית, היא צריכה להיות דינמית, אבל הדינמיות הזו מגיעה גם עם הסכנה של האינטרנט הרחב שהוא מסתמך עליו.
גוגל בארד מנסה ולא מצליח להיות מנוע חיפוש
גוגל אומרת בעקביות שבארד אינו מנוע חיפוש והוא במקום זאת "השלמה לחיפוש". נראה שגוגל רוצה שתשתמש ב-Bard כדרך לעזור ליצור מיילים, לכתוב הערות ולעשות אַחֵר יְצִירָתִי דברים... ו לֹא לקבל מידע.
אם זה המצב שגוגל לא רוצה שיראו בארד כמנוע חיפוש, אז למה הוא מחובר לאינטרנט?
כפי שמשתמשים רבים ציינו (בהומור), אתה יכול לשאול את בארד שאלות שהוא בהחלט צריך את האינטרנט עבורן, והוא יחפש וינסה לתת לך גם תשובה. אם זה נועד פשוט לעזור ביצירתיות, החברה יכולה בקלות להפוך את זה להרבה יותר דומה ChatGPT ופשוט שיהיה זה כך שהוא יכול לענות רק על שאלות על דברים שהיו מאומן על. עם זאת, זה לא המקרה, ואם אתה שואל אותו שאלות שהוא לא יודע בדיוק את התשובה עליהן, הוא יעשה כמה ניסיונות שאפתניים במקור.
לדוגמה, משתמש שאל את בארד כמה זמן ייקח לבארד להיסגר. התשובה מקורה בתגובה בדיחה של האקר ניוז שאמרה שהשירות כבר נסגר.
בארד לקחה חופשיות גם בכל הנוגע לחודשי השנה, משהו שנראה שהוא נאבק בו כשנותנים לו את החודשיים הראשונים של השנה.
איך אני יכול רק להניח שאמור לעיל קרה הוא שבארד זיהה את סוף ה"אוארי" של החודשיים הראשונים (לצד עם שגיאת הכתיב של פברואר) ופעל לפי זיהוי דפוסים משלו במקום מה בחודשי השנה בעצם הם.
לא משנה מה, עם זאת, ברור שבארד הוא לא בדיוק מוּכָן להיות מנוע חיפוש, ואני מניח שזו בדיוק הסיבה שהוא לא פורסם כמנוע חיפוש על ידי גוגל. אתה לא אמור להשתמש בו כמנוע חיפוש מהסיבה הפשוטה שבנקודת הזמן הנוכחית, נראה שהוא לא מסוגל להיות כזה. זה יכול למצוא דברים, אבל אין לו שום דרך לאמת את האותנטיות שלהם, ואם הוא יכול מקור חדשות האקר אקראי הערה על השבתת השירות כולו, ברור שצריך לעשות בזה לא מעט עבודה אֵזוֹר.
בארד, ChatGPT ובינג מול עתיד המידע השגוי
מידע מוטעה ודיסאינפורמציה הם כבר נושאים נפוצים להפליא בחברה המודרנית, ובינה מלאכותית שיש להם שום מסגרת התייחסות לדברים שהם מחזירים למשתמש קצה עלולה לתרום יותר מתמיד להפצת מֵידָע מְפוּבּרָק. האוכלוסייה הכללית רואה בבינה מלאכותית ישות יודעת כל, המסוגלת להבין את האינטרנט כולו בצורה שהיא יכולה לפשט אותו למשתמשים גרידא כמונו. זה לא יכול להיות רחוק יותר מהאמת, וזה רק ילך ויחמיר.
בארד כבר הואשם בגניבת עין החומרה של טום, שכאשר התעמת, האשימו את המשתמש בשקר. אם אתה חושב שחלק מהדברים האלה נשמעים דומה למגרעת "הייתי בינג טוב 😊", אתה צודק. אלו אותן מלכודות שכבר ראינו את מיקרוסופט מתמודדת איתן, וקשה לעקוף אותה מבלי להגביל את ה-AI שלך גַם הַרבֵּה. כאשר AI אומר שמשהו הוא שקר שאינו שקר, הוא תורם ישירות למידע מוטעה, גם אם הוא ארצי.
בארד הוא לא הבינה המלאכותית הגנרטיבית היחידה שהואשם בהפצת מידע מוטעה, אבל זה בהחלט חלק מהבעיה המתמשכת כרגע. זה כמעט בלתי אפשרי להבטיח ש-AI נותן עובדות רק למשתמש הקצה, במיוחד כשזה מגיע לחיפוש אחר לאחרונה מֵידָע. מה אתה סומך על AI שיענה ביעילות? בשבילי, זה בעצם כל דבר שה-Google Assistant מסוגל לעשות... בעיקר גישה לנתונים שכבר נאספו. זה לא מרכיב או נאסף על ידי AI לצריכה של משתמש קצה; זה פשוט נקרא ממסד נתונים.
אנחנו בצומת דרכים כרגע. מצד אחד, בינה מלאכותית נעשית יותר ויותר חזקה ככל שהימים עוברים. מודלים של שפה כמו אלה הולכים וגדלים בפופולריות, ורוב האנשים רק יראו את היעילות שלהם ויתחילו להשתמש בהם מיד; לעזאזל, ChatGPT הוא יישום הצרכנים הצומח ביותר אֵיִ פַּעַם מבחינת הזמן שלקח להגיע למאה מיליון משתמשים. עם זאת, לתוכניות כמו אלה יש כמות מדהימה של השפעה כאשר התוכן שלהן ממש לא מבוטח ולא מאומת.
זה לא אומר שכלי הבינה המלאכותית האלה יכולים לעולם לא יהיה טוב, אבל סביר מאוד שהם יתרמו למידע מוטעה ולדיסאינפורמציה בעתיד, וזה יהיה קשה להילחם בזה. פייסבוק כבר מצליחה לשכנע אנשים בכל מיני תיאוריות קונספירציה, ובינה מלאכותית של גוגל (או השם של מיקרוסופט, או של OpenAI) עליו יתרום כמעט בוודאות לתיאוריות הקונספירציה הללו נְקוּדָה. לעת עתה, העצה הטובה ביותר שאנו יכולים לתת עם כל אחד מהכלים הללו היא לאמת מחדש את כל המידע הם נותנים לך, וסביר מאוד שזאת תהיה העצה הרווחת להמשך זמן רב לבוא.