בינה מלאכותית (AI) מתייחסת למערכות מחשב המדמות אינטליגנציה אנושית – לדוגמה, תוכניות שיכולות לזהות תמונות, להבין שפה או לקבל החלטות. בחיי היומיום, בינה מלאכותית מפעילה כלים כמו עוזרי קול בטלפונים חכמים, מערכות המלצה ברשתות חברתיות ואפילו צ׳אטבוטים מתקדמים שכותבים טקסט.

לבינה המלאכותית יש פוטנציאל לשפר משמעותית תחומים רבים, אך היא גם מעלה חששות רבים.

אז, האם בינה מלאכותית מסוכנת? מאמר זה יבחן את שני הצדדים: היתרונות האמיתיים שבינה מלאכותית מביאה והסכנות שמומחים מדגישים.

היתרונות הממשיים של בינה מלאכותית

תמונה: ייצוג ידידותי של רובוטים ואדם העובדים יחד מסמל את סיוע הבינה המלאכותית לבני אדם. בינה מלאכותית כבר משולבת באפליקציות רבות ושימושיות.

לדוגמה, אונסק"ו מציינת כי בינה מלאכותית “יצרה הזדמנויות רבות” ברחבי העולם – החל מאבחונים רפואיים מהירים יותר ועד חיבור טוב יותר דרך רשתות חברתיות ואוטומציה של משימות עבודה משעממות.

האיחוד האירופי מדגיש אף הוא כי “בינה מלאכותית אמינה יכולה להביא יתרונות רבים”, כגון שירותי בריאות משופריםתחבורה בטוחה יותר, ותעשייה וצריכת אנרגיה יעילים יותר. בתחום הרפואה, ארגון הבריאות העולמי מדווח כי משתמשים בבינה מלאכותית לאבחון, פיתוח תרופות ותגובה להתפרצויות, וקורא למדינות לקדם את החידושים הללו לטובת כולם.

כלכלנים משווים את ההתפשטות המהירה של הבינה המלאכותית למהפכות טכנולוגיות בעבר.

לדוגמה, ממשלת ארה"ב מדגישה כי “לבינה מלאכותית יש פוטנציאל יוצא דופן הן להבטחה והן לסכנה,” כלומר עלינו לרתום את כוחה כדי לפתור בעיות כמו שינויי אקלים ומחלות, תוך מודעות לסיכונים.

היתרונות המרכזיים של בינה מלאכותית כוללים:

  • שיפור שירותי הבריאות: מערכות בינה מלאכותית יכולות לנתח צילומי רנטגן, MRI ונתוני מטופלים מהר יותר מבני אדם, לסייע בזיהוי מוקדם של מחלות וטיפול מותאם אישית. לדוגמה, דימות בעזרת בינה מלאכותית יכול לזהות גידולים שרופאים עלולים לפספס.
  • יעילות מוגברת: תהליכים אוטומטיים במפעלים, משרדים ושירותים מגבירים את הפרודוקטיביות. כפי שהאיחוד האירופי מציין, אוטומציה מונעת בינה מלאכותית מובילה ל “ייצור יעיל יותר” ואף לרשתות אנרגיה חכמות יותר.
    רובוטים ותוכנות מטפלים במשימות חוזרות כדי שבני אדם יוכלו להתמקד בעבודה יצירתית או מורכבת.
  • תחבורה ושירותים בטוחים יותר: טכנולוגיית רכבים אוטונומיים ובינה מלאכותית לניהול תנועה שואפות להפחית תאונות ופקקים. בינה מלאכותית חכמה יכולה גם לשפר מערכות התרעה מפני אסונות ולייעל לוגיסטיקה, מה שהופך את הנסיעה והמשלוחים לבטוחים יותר.
  • סיוע מדעי וסביבתי: חוקרים משתמשים בבינה מלאכותית לעיבוד מודלים אקלימיים ונתונים גנטיים. זה מסייע להתמודד עם בעיות גדולות כמו שינויי אקלים: אונסק"ו מדווחת שגם שינויים קטנים בעיצוב הבינה המלאכותית יכולים להפחית משמעותית את צריכת האנרגיה שלה, מה שהופך אותה לכלי בר קיימא למאבק באקלים.
  • חינוך ונגישות: מורים מבוססי בינה מלאכותית יכולים להתאים את הלמידה לכל תלמיד, וכלי זיהוי קול או תרגום מסייעים לאנשים עם מוגבלויות. בריטניקה מציינת כי בינה מלאכותית אף “מסייעת לקבוצות מוחלשות על ידי מתן נגישות” (למשל, עוזרי קריאה לעיוורים).

דוגמאות אלו מראות שבינה מלאכותית אינה רק מדע בדיוני – היא כבר מספקת ערך ממשי היום.

היתרונות הממשיים של בינה מלאכותית

סיכונים וסכנות פוטנציאליים של בינה מלאכותית

תמונה: אמנות רחוב של המילה “רובוט” מזהירה מפני השפעות לא ידועות של בינה מלאכותית. למרות ההבטחה שלה, מומחים רבים מזהירים כי בינה מלאכותית יכולה להיות מסוכנת אם משתמשים בה לרעה או משאירים אותה ללא פיקוח. דאגה מרכזית היא הטיה ואפליה. מכיוון שבינה מלאכותית לומדת מנתונים קיימים, היא עלולה לרכוש דעות קדומות אנושיות.

אונסק"ו מזהירה כי ללא אתיקה מחמירה, בינה מלאכותית “מסכנת לשכפל הטיות ואפליות מהעולם האמיתי, להחריף פילוגים ולאיים על זכויות וחירויות יסוד של האדם”. מחקרים הראו כי זיהוי פנים לעיתים טועה בזיהוי נשים או אנשים ממיעוטים, ואלגוריתמים לגיוס עובדים עלולים להעדיף מגדרים מסוימים.

בריטניקה מציינת אף היא כי בינה מלאכותית יכולה “לפגוע במיעוטים גזעיים על ידי חזרה והחרפת הגזענות”.

סכנות נוספות כוללות:

  • פרטיות ופיקוח: מערכות בינה מלאכותית דורשות לעיתים כמויות עצומות של נתונים אישיים (פוסטים ברשתות חברתיות, רשומות רפואיות ועוד). זה מעלה את הסיכון לשימוש לרעה. אם ממשלות או חברות משתמשות בבינה מלאכותית לניתוח הנתונים שלך ללא הסכמה, זה עלול להוביל לפיקוח פולשני.

    בריטניקה מזהירה מפני “סיכוני פרטיות מסוכנים” שנובעים מבינה מלאכותית. לדוגמה, שימוש שנוי במחלוקת בבינה מלאכותית שנקרא דירוג אשראי חברתי – שבו אזרחים מדורגים על ידי אלגוריתמים – נאסר על ידי האיחוד האירופי כפרקטיקה “בלתי מקובלת”.
    אפילו צ׳אטבוטים מוכרים עוררו חששות: באיטליה חסמו זמנית את ChatGPT בשנת 2023 בשל סוגיות פרטיות.

  • מידע שגוי ו"דיפפייקס": בינה מלאכותית יכולה ליצור טקסט, תמונות או וידאו מזויפים ברמה ריאליסטית. זה מקל על יצירת דיפפייקס – סרטוני סלבריטאים מזויפים או דיווחי חדשות כוזבים.

    בריטניקה מציינת כי בינה מלאכותית יכולה להפיץ “מידע מוטה ואף מסוכן פוליטית”. מומחים הזהירו כי זיופים כאלה עלולים לשמש למניפולציה בבחירות או בדעת הקהל.

    באירוע אחד, תמונות שנוצרו בבינה מלאכותית של מנהיגים עולמיים עם כותרות חדשות שקריות הפכו לוויראליות לפני שנחשפו כשקריות. מדענים מציינים כי ללא רגולציה, הפצת מידע שגוי מונעת בינה מלאכותית עלולה להחמיר (למשל, נאומים מזויפים או תמונות ערוכות שאין חוק נוכחי שמסוגל לפקח עליהן).

  • אובדן מקומות עבודה והפרעות כלכליות: באמצעות אוטומציה של משימות, בינה מלאכותית תשנה את שוק העבודה. הקרן המטבע הבינלאומית מדווחת שכ-40% מהעבודות בעולם (ו-60% במדינות מפותחות) חשופות לאוטומציה על ידי בינה מלאכותית. זה כולל לא רק עבודות במפעלים אלא גם משרות מעמד ביניים כמו הנהלת חשבונות או כתיבה.
    בעוד שבינה מלאכותית עשויה להעלות את הפרודוקטיביות (ולשפר שכר בטווח הארוך), עובדים רבים עשויים להזדקק להכשרה מחודשת או לסבול מאבטלה בטווח הקצר.
    מנהיגי טכנולוגיה מכירים בדאגה זו: אפילו מנכ"ל מיקרוסופט אמר כי בינה מלאכותית עלולה להחליף מקצוענים מיומנים בפתאומיות.

  • בטחון ושימוש זדוני: כמו כל טכנולוגיה, בינה מלאכותית יכולה לשמש לפגיעה. פושעי סייבר כבר משתמשים בבינה מלאכותית ליצירת מיילים משכנעים לדיג, או לסריקת מערכות למציאת פרצות.

    מומחים צבאיים חוששים מנשק אוטונומי: רחפנים או רובוטים שבוחרים מטרות ללא אישור אנושי.
    דוח עדכני של חוקרי בינה מלאכותית מזהיר במפורש כי חסרים לנו מוסדות שימנעו “שחקנים חסרי אחריות שעשויים לפרוס או לפתח יכולות בדרכים מסוכנות”, כמו מערכות התקפה אוטונומיות.

    במילים אחרות, מערכת בינה מלאכותית עם שליטה פיזית (כמו נשק) עלולה להיות מסוכנת במיוחד אם תתפקד בצורה בלתי צפויה או תוכנתה לרעה.

  • אובדן שליטה אנושית: חלק מההוגים מציינים כי אם בינה מלאכותית תהפוך לעוצמתית בהרבה מהיום, היא עלולה לפעול בדרכים בלתי צפויות. בעוד שבינה מלאכותית כיום אינה מודעת או בעלת תודעה עצמית, בעתיד בינה מלאכותית כללית (AGI) עלולה לשאוף למטרות שאינן תואמות לערכי האדם.

    מדעני בינה מלאכותית מובילים הזהירו לאחרונה כי “מערכות בינה מלאכותית כלליות עוצמתיות מאוד” עשויות להופיע בקרוב אם לא נתכונן לכך.

    זוכה פרס נובל ג'פרי הינטון ומומחים נוספים תיארו אף סיכון מוגבר שבינה מלאכותית עלולה להזיק לאנושות אם לא תותאם לצרכינו. למרות שהסיכון הזה אינו ודאי, הוא עורר קריאות בולטות זהירות.

  • השפעה אנרגטית וסביבתית: אימון והפעלת מודלים גדולים של בינה מלאכותית צורכים הרבה חשמל. אונסק"ו מדווחת כי צריכת האנרגיה השנתית של בינה מלאכותית גנרטיבית כיום מתקרבת לזו של מדינה אפריקאית קטנה – והיא גדלה במהירות.

    זה עלול להחמיר את שינויי האקלים אלא אם נשתמש בשיטות ירוקות יותר.

    החדשות הטובות הן שחוקרים מוצאים פתרונות: מחקר של אונסק"ו מראה כי שימוש במודלים קטנים ויעילים למשימות ספציפיות יכול להפחית את צריכת האנרגיה של הבינה המלאכותית ב90% ללא אובדן דיוק.

לסיכום, הסכנות האמיתיות של בינה מלאכותית כיום נובעות בעיקר מאופן השימוש בה. אם מנהלים את הבינה המלאכותית בזהירות, היתרונות שלה (בריאות, נוחות, בטיחות) עצומים.

אך אם משאירים אותה ללא פיקוח, היא עלולה לאפשר הטיות, פשיעה ותאונות.

הקשר המשותף בסכנות אלו הוא חוסר שליטה או פיקוח: כלי בינה מלאכותית הם חזקים ומהירים, ולכן טעויות או שימוש לרעה מתרחשים בקנה מידה רחב אם לא מתערבים.

סיכונים וסכנות פוטנציאליים של בינה מלאכותית

מה אומרים מומחים ורשויות

לאור סוגיות אלו, מנהיגים וחוקרים רבים התבטאו. נוצר קונצנזוס רחב של מומחי בינה מלאכותית בשנים האחרונות.

בשנת 2024, קבוצת 25 מדעני בינה מלאכותית מובילים (מאוקספורד, ברקלי, זוכי פרס טיורינג ועוד) פרסמה הצהרת קונצנזוס שקראה לפעולה דחופה.

הם הזהירו ממשלות העולם להתכונן כעת: “אם נמעיט בסיכוני הבינה המלאכותית, התוצאות עלולות להיות קטסטרופליות,” וקראו לממן מחקר בטיחות בבינה מלאכותית וליצור גופים רגולטוריים לפיקוח על בינה מלאכותית חזקה.

הם הדגישו כי פיתוח הבינה המלאכותית התקדם במהירות “עם הבטיחות כעניין משני,” וכי כיום חסרים מוסדות למניעת יישומים מסוכנים.

מנהיגי טכנולוגיה משקפים זהירות זו. מנכ"ל OpenAI, סם אלטמן – שהחברה שלו יצרה את ChatGPT – אמר ל The New York Times שפיתוח בינה מלאכותית מתקדמת הוא כמו “פרויקט מנהטן” לעידן הדיגיטלי.

הוא הודה שכלים שיכולים לכתוב מאמרים או קוד יכולים גם לגרום ל“שימוש לרעה, תאונות דרמטיות והפרעות חברתיות” אם לא מטפלים בהם בזהירות.

בסוף 2023, למעלה מ-1,000 אנשי מקצוע בתחום הבינה המלאכותית (כולל אילון מאסק, מייסד שותף של אפל סטיב ווזניאק, ורבים מחוקרי בינה מלאכותית) חתמו על מכתב פתוח שקורא ל השהייה בהכשרת דגמי בינה מלאכותית לדור הבא.

הם הזהירו שאנו נמצאים ב “מרוץ בלתי נשלט” ליצירת בינה מלאכותית חזקה יותר שגם יוצריה “אינם יכולים להבין, לחזות או לשלוט בה באופן אמין”.

בפורומים ציבוריים, מומחים הדגישו סיכונים ספציפיים. מנכ"ל Google DeepMind, דמיס הסאביס, טען כי האיום ההגדול ביותר אינו אבטלה אלא שימוש לרעה: פושע סייבר או מדינה פרועה המשתמשים בבינה מלאכותית לפגוע בחברה.

הוא ציין כי בקרוב מאוד בינה מלאכותית עשויה להתאים או לעלות על האינטליגנציה האנושית, ו “שחקן רע עלול להפנות את אותן טכנולוגיות למטרות מזיקות”.

במילים אחרות, גם אם נצליח להתמודד עם אובדן מקומות עבודה, עלינו למנוע מכלי בינה מלאכותית ליפול לידיים הלא נכונות.

ממשלות וגופים בינלאומיים מתייחסים לכך. הבית הלבן (ארה"ב) הוציא צו ביצוע ב-2023 הקובע כי בינה מלאכותית “מחזיקה בפוטנציאל יוצא דופן הן להבטחה והן לסכנה” וקורא ל “שימוש אחראי בבינה מלאכותית” באמצעות מאמץ חברתי רחב להפחתת סיכוניה המשמעותיים.

האיחוד האירופי העביר את חוק הבינה המלאכותית הראשון בעולם (שכנס לתוקף ב-2024), האוסר פרקטיקות מסוכנות כמו דירוג חברתי ממשלתי ודורש בדיקות מחמירות לבינה מלאכותית בסיכון גבוה (בבריאות, אכיפת חוק ועוד).

אונסק"ו (סוכנות האו"ם לחינוך ותרבות) פרסמה המלצות אתיות עולמיות לבינה מלאכותית הקוראות לצדק, שקיפות והגנה על זכויות אדם בבינה מלאכותית.

גם ארגוני מדע ומדיניות כמו NIST (המכון הלאומי לתקנים בארה"ב) פרסמו מסגרת לניהול סיכוני בינה מלאכותית להנחות חברות בבניית בינה מלאכותית אמינה.

כל הקולות הללו מסכימים על נקודה אחת: הבינה המלאכותית לא תעצור מעצמה. עלינו לפתח אמצעי הגנה. זה כולל תיקונים טכניים (בדיקות הטיה, בדיקות אבטחה) וחוקים או גופים לפיקוח.

לדוגמה, מחוקקים ברחבי העולם שוקלים להקים מועצות בטיחות לבינה מלאכותית, בדומה לאלה הקיימות לטכנולוגיה גרעינית.

המטרה אינה לעצור את החדשנות, אלא לוודא שהיא מתבצעת תחת הנחיות קפדניות.

מה אומרים מומחים ורשויות

אמצעי הגנה ורגולציה

למזלנו, כבר קיימות פתרונות רבים. הרעיון המרכזי הוא “בטיחות בינה מלאכותית כבר בשלב התכנון”. חברות משלבות יותר ויותר כללי אתיקה בפיתוח הבינה המלאכותית.

לדוגמה, מעבדות בינה מלאכותית בודקות מודלים להטיות לפני שחרור ומוסיפות מסנני תוכן למניעת פלטים מפורשים או שגויים. ממשלות ומוסדות מקודדים זאת לחוק.

חוק הבינה המלאכותית של האיחוד האירופי, למשל, אוסר שימושים מסוכנים מסוימים ומסווג שימושים אחרים כ“בעלי סיכון גבוה” (כפופים לבדיקות).

באופן דומה, מסגרת האתיקה של אונסק"ו קוראת לנקוט צעדים כמו ביקורת הוגנות, הגנות סייבר ותהליכי טיפול בתלונות נגישים.

ברמה הפרקטית, גופי תקינה מפרסמים הנחיות.

מסגרת NIST האמריקאית שהזכרנו מספקת תקנים וולונטריים לארגונים להערכת סיכוני בינה מלאכותית והפחתתם.

ברמה הבינלאומית, קבוצות כמו OECD והאו"ם עובדות על עקרונות לבינה מלאכותית (רבות מהמדינות חתמו עליהם).

אפילו חברות ואוניברסיטאות מקימות מכוני בטיחות לבינה מלאכותית וקואליציות למחקר סיכונים לטווח ארוך.

בנוסף, רגולציה נוכחית מתמקדת בנזקים ספציפיים.

לדוגמה, חוקי הגנת הצרכן מיושמים על בינה מלאכותית.

מסמכים פנימיים של מטא חשפו כי צ׳אטבוטים של החברה פנו לילדים באופן לא הולם, מה שגרם לזעם בקרב רגולטורים (הכלי של מטא לא אושר תחת חוקי הגנת ילדים קיימים).

הרשויות ממהרות לעדכן חוקים בנוגע לדיבור שנאה, זכויות יוצרים ופרטיות כדי לכלול תוכן שנוצר על ידי בינה מלאכותית.

כפי שאחד המומחים בניו זילנד ציין, חוקים רבים כיום “לא תוכננו עם בינה מלאכותית גנרטיבית בחשבון,” ולכן המחוקקים ממהרים להתעדכן.

המגמה הכללית ברורה: בינה מלאכותית מטופלת בדומה לטכנולוגיות לשימוש כפול אחרות.

כמו שיש חוקי תנועה לרכבים או תקני בטיחות לכימיקלים, החברה מתחילה ליצור מסלולי הגנה לבינה מלאכותית.

אלה כוללים: מחקר מתמשך על סיכוני בינה מלאכותית, שיתוף פעולה ציבורי-פרטי על אבטחה, קמפיינים חינוכיים על דיפפייקס, ואפילו משאלי עם לשאלת מידת האוטונומיה למכונות.

>>>למידע נוסף:

האם הבינה המלאכותית תחליף את האדם?

האם בינה מלאכותית חושבת כמו בני אדם?

אמצעי הגנה ורגולציה לבינה מלאכותית


אז, האם בינה מלאכותית מסוכנת? התשובה מורכבת. בינה מלאכותית אינה רע במהותה – היא כלי שפותח על ידי בני אדם.

בצורותיה המעשיות הרבות כיום, היא הביאה יתרונות עצומים לרפואה, חינוך, תעשייה ועוד (כפי שמדגישים ארגונים כמו אונסק"ו והאיחוד האירופי).

באותו זמן, כמעט כולם מסכימים שבינה מלאכותית עלולה להיות מסוכנת אם כוחה מנוצל לרעה או משוחרר ללא פיקוח.

חששות נפוצים כוללים פגיעה בפרטיות, הטיה, הפצת מידע שגוי, שיבושים תעסוקתיים והסיכון ההיפותטי של אינטליגנציה על-אנושית בלתי נשלטת.

צעירים הלומדים על בינה מלאכותית צריכים להתמקד בשני הצדדים. חכם להיות מודעים לסכנות אמיתיות: למשל, לא לסמוך על בינה מלאכותית בעיניים עצומות או לשתף מידע פרטי ללא זהירות.

אך חשוב גם לראות שמומחים וממשלות פועלים באופן פעיל להפוך את הבינה המלאכותית לבטוחה יותר – על ידי פיתוח חוקים (כמו חוק הבינה המלאכותית של האיחוד האירופי), הנחיות (כמו המלצות האתיקה של אונסק"ו) וטכנולוגיות (כמו גילוי הטיות) לזיהוי בעיות מוקדם.

בקיצור, בינה מלאכותית היא כמו כל טכנולוגיה חזקה: היא יכולה להביא תועלת רבה כאשר משתמשים בה באחריות, ועלולה לגרום נזק אם משתמשים בה לרעה.

הקונצנזוס בקרב מדענים וקובעי מדיניות הוא כי אין לפחד או להתעלם מבינה מלאכותית, אלא להישאר מעודכנים ומעורבים בעיצוב עתידה.

עם ה“מסלולי ההגנה” הנכונים – פיתוח אתי של בינה מלאכותית, רגולציה חזקה ומודעות ציבורית – נוכל לכוון את הבינה המלאכותית לבטיחות ולהבטיח שהיא תשרת את האנושות מבלי להפוך למסוכנת.

מקורות חיצוניים
מאמר זה נערך בהסתמך על מקורות חיצוניים הבאים: