מתעניינים בהטיות אלגוריתמיות בבינה מלאכותית? הצטרפו ל-INVIAI ולמדו עוד על בינה מלאכותית והטיה אלגוריתמית במאמר זה!

בינה מלאכותית (AI) משתלבת יותר ויותר בחיי היומיום שלנו – מהחלטות גיוס ועד בריאות ואכיפת חוק – אך השימוש בה מעורר חששות לגבי הטיה אלגוריתמית. הטיה אלגוריתמית מתייחסת להטיות שיטתיות ולא הוגנות בתוצאות של מערכות בינה מלאכותית, שלעיתים משקפות סטריאוטיפים ואי-שוויונות חברתיים.

בעיקרון, אלגוריתם בינה מלאכותית עלול לשכפל בטעות הטיות אנושיות הקיימות בנתוני האימון או בעיצוב שלו, מה שמוביל לתוצאות מפלות.

נושא זה הפך לאחד האתגרים המדוברים ביותר באתיקה טכנולוגית, ומושך תשומת לב עולמית מצד חוקרים, מקבלי מדיניות ומובילי תעשייה. האימוץ המהיר של הבינה המלאכותית מחייב לטפל בהטיה כעת: ללא כללי אתיקה, הבינה המלאכותית עלולה לשכפל הטיות ואפליה מהעולם האמיתי, להחריף פערים חברתיים ואפילו לאיים על זכויות אדם בסיסיות.

להלן נבחן מה גורם להטיה אלגוריתמית, דוגמאות מהעולם האמיתי להשפעתה, וכיצד העולם שואף להפוך את הבינה המלאכותית להוגנת יותר.

הבנת ההטיה האלגוריתמית וסיבותיה

ההטיה האלגוריתמית נובעת בדרך כלל לא מכיוון שהבינה המלאכותית "רוצה" להפלות, אלא בגלל גורמים אנושיים. מערכות בינה מלאכותית לומדות מנתונים ופועלות לפי כללים שנוצרו על ידי אנשים – ואנשים נושאים הטיות (לעיתים בלתי מודעות).
אם נתוני האימון מוטים או משקפים דעות קדומות היסטוריות, הבינה המלאכותית תסיק סביר להניח את אותם דפוסים.

לדוגמה, אלגוריתם לסינון קורות חיים שאומן על עשר שנים של גיוס בתעשיית הטכנולוגיה (בה רוב המועמדים שנקלטו היו גברים) עלול להסיק שמועמדים גברים מועדפים, ובכך לפגוע בנשים. סיבות נפוצות נוספות כוללות מאגרי נתונים לא שלמים או לא מייצגים, תיוג נתונים מוטה, או אלגוריתמים המותאמים לדיוק כללי אך לא להוגנות כלפי קבוצות מיעוט.

בקיצור, אלגוריתמים של בינה מלאכותית יורשים את ההטיות של יוצריהם ושל הנתונים אלא אם ננקטים צעדים מודעים לזיהוי ותיקון ההטיות הללו.

חשוב לציין שההטיה האלגוריתמית היא בדרך כלל בלתי מכוונת. ארגונים מאמצים לעיתים בינה מלאכותית כדי לקבל החלטות אובייקטיביות יותר, אך אם הם "מזינים" את המערכת במידע מוטה או לא מתחשבים בשוויון בעיצוב, התוצאה עלולה להיות לא הוגנת. הטיית בינה מלאכותית עלולה להקצות הזדמנויות באופן לא הוגן וליצור תוצאות שגויות, הפוגעות ברווחת האנשים ומערערות את האמון בבינה מלאכותית.

הבנת הסיבות להטיה היא הצעד הראשון לפתרונות – וצעד זה נלקח ברצינות על ידי האקדמיה, התעשייה והממשלות ברחבי העולם.

הבנת ההטיה האלגוריתמית וסיבותיה

דוגמאות מהעולם האמיתי להטיית בינה מלאכותית

ההטיה בבינה מלאכותית אינה רק חשש תיאורטי; מקרים רבים מהעולם האמיתי חשפו כיצד הטיה אלגוריתמית עלולה להוביל לאפליה. מקרים בולטים של הטיית בינה מלאכותית במגזרים שונים כוללים:

  • מערכת המשפט הפלילי: בארצות הברית, אלגוריתם פופולרי לחיזוי חזרת עבריינות נמצא מוטה נגד נאשמים שחורים. הוא לעיתים קרובות שגה בהערכת נאשמים שחורים כסיכון גבוה ונאשמים לבנים כסיכון נמוך, מה שהחריף פערים גזעיים בעונשים.
    מקרה זה מדגים כיצד בינה מלאכותית יכולה להעצים הטיות היסטוריות באכיפת חוק ובבתי משפט.

  • גיוס והשמה: אמזון ביטלה כלי גיוס מבוסס בינה מלאכותית לאחר שגילתה שהוא מפלה נשים. מודל הלמידה המכונה לימד את עצמו שמועמדים גברים מועדפים, מאחר שאומן על קורות חיים מהעבר שהיו בעיקר של גברים.

    כתוצאה מכך, קורות חיים שכללו את המילה "נשים" (למשל "קפטנית מועדון שחמט נשים") או מכללות לנשים בלבד הוערכו נמוך יותר במערכת. אלגוריתם גיוס מוטה זה היה מסנן באופן לא הוגן נשים מוכשרות לתפקידים טכניים.

  • בריאות: אלגוריתם ששימש בתי חולים בארה"ב לזיהוי מטופלים הזקוקים לטיפול נוסף נמצא ממעיט בערך הצרכים הבריאותיים של מטופלים שחורים לעומת מטופלים לבנים. המערכת חיזתה עדיפות בניהול טיפול על בסיס הוצאות בריאות: מאחר שבפועל הוצאו פחות כספים על מטופלים שחורים עם אותה רמת מחלה, האלגוריתם הסיק בטעות שמטופלים שחורים הם "בריאים יותר" והעניק להם ציוני סיכון נמוכים יותר.

    בפועל, הטיה זו גרמה לכך שמטופלים שחורים שזקוקים ליותר טיפול נותרו ללא מענה – המחקר הראה שמטופלים שחורים הוציאו כ-1,800 דולר פחות בשנה על טיפול רפואי בהשוואה למטופלים לבנים חולים באותה מידה, מה שהוביל לטיפול לקוי מצד הבינה המלאכותית.

  • זיהוי פנים: טכנולוגיית זיהוי הפנים הראתה הטיות משמעותיות בדיוק בין קבוצות דמוגרפיות. מחקר מקיף משנת 2019 של המכון הלאומי לתקנים וטכנולוגיה (NIST) בארה"ב מצא שרוב האלגוריתמים לזיהוי פנים טעו בשיעורים גבוהים בהרבה עבור אנשים צבעוניים ונשים לעומת גברים לבנים.

    בתרחישי התאמה אחד-על-אחד (אימות אם שתי תמונות הן של אותו אדם), זיהוי חיובי שגוי עבור פנים אסיאתיות ואפרו-אמריקאיות היה בין פי 10 ל-100 יותר סביר מאשר עבור פנים קווקזיות בכמה אלגוריתמים. בחיפושים אחד-על-רבים (זיהוי אדם מתוך מאגר, בשימוש אכיפת חוק), שיעורי זיהוי שגוי הגבוהים ביותר היו לנשים שחורות – הטיה מסוכנת שכבר הובילה למעצרים שגויים של אנשים חפים מפשע.

    פערים אלה מדגימים כיצד בינה מלאכותית מוטה עלולה לפגוע באופן לא פרופורציונלי בקבוצות מוחלשות.

  • בינה מלאכותית גנרטיבית ותוכן מקוון: גם מערכות הבינה המלאכותית המתקדמות ביותר אינן חסינות. מחקר של אונסק"ו משנת 2024 חשף שמודלים לשוניים גדולים (הבסיס לצ'אטבוטים וליוצרי תוכן) מייצרים לעיתים סטריאוטיפים מגדריים וגזעיים רגרסיביים.

    לדוגמה, נשים תוארו בתפקידים ביתיים פי ארבעה יותר מגברים במודל פופולרי אחד, כששמות נשיים נקשרו לעיתים קרובות למילים כמו "בית" ו"ילדים", בעוד ששמות גבריים נקשרו ל"נשיאות", "שכר" ו"קריירה". במחקר נמצא גם שהמודלים הללו מציגים הטיות הומופוביות וסטריאוטיפים תרבותיים בתוצאותיהם.

    בהינתן שמיליונים משתמשים כיום בבינה מלאכותית גנרטיבית בחיי היומיום, אפילו הטיות עדינות בתוכן עלולות להעצים אי-שוויונות בעולם האמיתי, ולחזק סטריאוטיפים בקנה מידה רחב.

דוגמאות אלו מדגישות שההטיה האלגוריתמית אינה בעיה רחוקה או נדירה – היא מתרחשת במגוון תחומים כבר היום. מהזדמנויות תעסוקה ועד משפט, בריאות ומידע מקוון, מערכות בינה מלאכותית מוטות עלולות לשכפל ואף להחריף אפליה קיימת.

הנזק נופל לעיתים קרובות על קבוצות שהיו במצב נחיתות היסטורי, ומעלה חששות אתיים וזכויות אדם משמעותיים. כפי שאונסק"ו מזהירה, הסיכונים של הבינה המלאכותית הם "החמרה של אי-שוויונות קיימים, הגורמת נזק נוסף לקבוצות מוחלשות".

דוגמאות מהעולם האמיתי להטיית בינה מלאכותית

מדוע הטיית בינה מלאכותית חשובה?

הסיכונים בטיפול בהטיית בינה מלאכותית גבוהים. אם לא יטופלו, אלגוריתמים מוטים עלולים להעמיק אפליה מערכתית תחת מסווה של נייטרליות טכנולוגית. החלטות שמתקבלות (או מונחות) על ידי בינה מלאכותית – מי מתקבל לעבודה, מי מקבל הלוואה או שחרור מוקדם, כיצד המשטרה מפעילה מעקב – נושאות השלכות ממשיות על חיי אנשים.

אם החלטות אלו מוטות באופן לא הוגן נגד מגדרים, גזעים או קהילות מסוימות, הפערים החברתיים מתרחבים. זה עלול להוביל לסירוב הזדמנויות, פערים כלכליים ואפילו לאיומים על חופש וביטחון אישי של קבוצות מושפעות.

במבט רחב יותר, ההטיה האלגוריתמית מפירה זכויות אדם וצדק חברתי, בניגוד לעקרונות השוויון ואי-הפליה שמדינות דמוקרטיות מקדמות.

הטיה בבינה מלאכותית גם מערערת את האמון הציבורי בטכנולוגיה. אנשים נוטים פחות לסמוך או לאמץ מערכות בינה מלאכותית הנתפסות כלא הוגנות או לא שקופות.

לעסקים ולממשלות, פער האמון הזה הוא סוגיה חמורה – חדשנות מוצלחת דורשת אמון ציבורי. כפי שאמר מומחה אחד, החלטות בינה מלאכותית הוגנות וללא הטיות אינן רק אתיות, הן טובות לעסקים ולחברה כי חדשנות בת קיימא תלויה באמון.

לעומת זאת, כישלונות בולטים של בינה מלאכותית עקב הטיה (כמו המקרים שהוזכרו) עלולים לפגוע במוניטין ובלגיטימיות של הארגון.

יתרה מזאת, ההטיה האלגוריתמית עלולה להפחית את היתרונות הפוטנציאליים של הבינה המלאכותית. לבינה מלאכותית יש פוטנציאל לשפר יעילות וקבלת החלטות, אך אם התוצאות שלה מפלות או לא מדויקות עבור חלקים מהאוכלוסייה, היא לא תוכל לממש את מלוא ההשפעה החיובית שלה.

לדוגמה, כלי בריאות מבוסס בינה מלאכותית שעובד היטב עבור קבוצה דמוגרפית אחת אך גרוע עבור אחרות אינו יעיל או מקובל באמת. כפי שציין ה-OECD, הטיה בבינה מלאכותית מגבילה הזדמנויות באופן לא הוגן ועלולה לעלות לעסקים במוניטין ובאמון המשתמשים.

בקיצור, טיפול בהטיה הוא לא רק חובה מוסרית אלא גם קריטי למימוש היתרונות של הבינה המלאכותית עבור כל הפרטים בצורה הוגנת.

מדוע הטיית בינה מלאכותית חשובה

אסטרטגיות להפחתת הטיית בינה מלאכותית

מכיוון שההטיה האלגוריתמית מוכרת כיום באופן נרחב, התפתחו מגוון אסטרטגיות ונהלים מומלצים להפחתתה. הבטחת מערכות בינה מלאכותית הוגנות ומכלילות דורשת פעולה בשלבים שונים של פיתוח ויישום:

  • שיפור איכות הנתונים: מכיוון שנתונים מוטים הם סיבה מרכזית, שיפור איכות הנתונים הוא מפתח. זה כולל שימוש במאגרי אימון מגוונים ומייצגים הכוללים קבוצות מיעוט, ובדיקות קפדניות לזיהוי הטיות או פערים.

    זה גם כולל ביקורת נתונים לזיהוי הטיות היסטוריות (למשל תוצאות שונות לפי גזע/מגדר) ותיקונן או איזונן לפני אימון המודל. במקרים בהם קבוצות מסוימות מיוצגות פחות, טכניקות כמו הגדלת נתונים או נתונים סינתטיים יכולות לסייע.

    מחקר של NIST הציע שיותר נתוני אימון מגוונים יכולים להניב תוצאות הוגנות יותר בזיהוי פנים, למשל. ניטור מתמשך של תוצאות הבינה המלאכותית יכול גם לאתר בעיות הטיה מוקדם – מה שנמדד מנוהל. אם ארגון אוסף נתונים מדויקים על שונות החלטות האלגוריתם לפי דמוגרפיה, הוא יכול לזהות דפוסים לא הוגנים ולטפל בהם.

  • עיצוב אלגוריתמים הוגנים: מפתחים צריכים לשלב במודע מגבלות הוגנות וטכניקות להפחתת הטיה באימון המודל. זה עשוי לכלול שימוש באלגוריתמים שניתן לכוונן עבור הוגנות (ולא רק דיוק), או יישום טכניקות לאיזון שיעורי שגיאה בין קבוצות.

    כיום קיימים כלים ומסגרות (רבות בקוד פתוח) לבדיקת מודלים להטיה ולהתאמתם – למשל, שינוי משקל הנתונים, שינוי סף החלטה, או הסרת תכונות רגישות באופן מושכל.

    חשוב לציין שישנן הגדרות מתמטיות שונות של הוגנות (כגון שוויון בתחזית, שוויון בשיעורי חיוב שגוי וכו'), ולעיתים הן סותרות זו את זו. בחירת גישת ההוגנות הנכונה דורשת שיקול אתי והקשר ספציפי, ולא רק התאמת נתונים.

    לכן, מומלץ לצוותי בינה מלאכותית לעבוד עם מומחים בתחום וקהילות מושפעות בעת הגדרת קריטריוני הוגנות ליישום מסוים.

  • פיקוח ואחריות אנושית: אין מערכת בינה מלאכותית שפועלת בבידוד ללא אחריות אנושית. פיקוח אנושי חיוני לזיהוי ותיקון הטיות שהמכונה עלולה ללמוד.

    זה אומר לכלול אנשים בתהליך קבלת החלטות חשובות – למשל מגייס שבודק מועמדים שסוננו על ידי בינה מלאכותית, או שופט המתייחס בזהירות לציון סיכון מבוסס AI.

    זה גם אומר להקצות אחריות ברורה: ארגונים חייבים לזכור שהם אחראים להחלטות שמתקבלות על ידי האלגוריתמים שלהם כאילו התקבלו על ידי עובדים. ביקורות תקופתיות של החלטות AI, הערכות השפעת הטיה, ויכולת להסביר את ההיגיון של הבינה המלאכותית (explainability) מסייעים לשמור על אחריות.

    שקיפות היא עמוד תווך נוסף: להיות פתוחים לגבי אופן פעולת המערכת והמגבלות הידועות שלה יכול לבנות אמון ולאפשר ביקורת עצמאית.

    למעשה, ישנם אזורים שמהלכים לקראת חובת שקיפות בהחלטות אלגוריתמיות בעלות השלכות משמעותיות (למשל דרישה לסוכנויות ציבוריות לחשוף כיצד האלגוריתמים משמשים בהחלטות המשפיעות על אזרחים). המטרה היא להבטיח שהבינה המלאכותית תתמוך בקבלת החלטות אנושית בלי להחליף שיקול אתי או אחריות משפטית.

  • צוותים מגוונים ופיתוח כוללני: קול גובר של מומחים מדגיש את חשיבות המגוון בקרב מפתחי הבינה המלאכותית ובעלי העניין. מוצרי בינה מלאכותית משקפים את נקודות המבט והעיוורים של מי שבונה אותם.

    לכן, אם רק קבוצה הומוגנית (למשל מגדר אחד, אתניות אחת או רקע תרבותי אחד) מעצבת מערכת בינה מלאכותית, ייתכן שהיא תתעלם מהשפעות לא הוגנות על אחרים.

    הכללת קולות מגוונים – כולל נשים, מיעוטים גזעיים ומומחים במדעי החברה או אתיקה – בתהליך העיצוב והבדיקה מובילה לבינה מלאכותית מודעת תרבותית יותר.

    אונסק"ו מציינת כי נכון לנתונים האחרונים, נשים מיוצגות במידה נמוכה מאוד בתפקידים טכניים בבינה מלאכותית (כ-20% בלבד מעובדי AI הטכניים ו-12% מהחוקרים בתחום הם נשים). הגדלת הייצוג אינה רק שוויון במקום העבודה, אלא גם שיפור תוצאות הבינה המלאכותית: אם מערכות AI לא מפותחות על ידי צוותים מגוונים, הן פחות צפויות לענות על צרכי משתמשים מגוונים או להגן על זכויות כולם.

    יוזמות כמו פלטפורמת אונסק"ו Women4Ethical AI שואפות לקדם מגוון ולשתף נהלים מיטביים לעיצוב AI ללא אפליה.

  • רגולציה וקווים מנחים אתיים: ממשלות וגופים בינלאומיים פועלים כיום להבטיח שהטיית בינה מלאכותית מטופלת. בשנת 2021, מדינות החברות באונסק"ו אימצו פה אחד את ההמלצה על אתיקה של בינה מלאכותית – המסגרת העולמית הראשונה לאתיקה בבינה מלאכותית.

    ההמלצה כוללת עקרונות של שקיפות, הוגנות ואי-הפליה, ומדגישה את חשיבות הפיקוח האנושי על מערכות AI. עקרונות אלו משמשים כמדריך למדינות לגיבוש מדיניות וחוקים בנושא AI.

    באופן דומה, חוק הבינה המלאכותית החדש של האיחוד האירופי (שייכנס לתוקף במלואו ב-2024) מדגיש במפורש את מניעת ההטיה. אחד היעדים המרכזיים של החוק הוא להפחית אפליה והטיה במערכות AI בסיכון גבוה.

    החוק ידרוש שמערכות המשמשות בתחומים רגישים (כגון גיוס, אשראי, אכיפת חוק ועוד) יעברו הערכות מחמירות להוגנות ולא יפגעו באופן לא פרופורציונלי בקבוצות מוגנות.

    הפרות עלולות לגרור קנסות כבדים, מה שיוצר תמריץ חזק לחברות לפתח מנגנוני בקרה על הטיה.

    בנוסף לרגולציה רחבה, כמה רשויות מקומיות נקטו צעדים ממוקדים – למשל, יותר מעשר ערים גדולות (כולל סן פרנסיסקו, בוסטון ומיניאפוליס) אסרו לחלוטין שימוש במשטרת זיהוי פנים בשל ההטיה הגזעית והסיכונים לזכויות האזרח.

    מצד התעשייה, ארגוני תקינה וחברות טכנולוגיה מפרסמים קווים מנחים ומפתחים כלים (כגון ערכות כלים להוגנות ומסגרות ביקורת) כדי לסייע למפתחי AI לשלב אתיקה בפיתוח.

    התנועה לבינה מלאכותית אמינה משלבת את המאמצים הללו, ומבטיחה שמערכות AI יהיו חוקיות, אתיות ויציבות בפועל.

>>> רוצים לדעת:

השפעת הבינה המלאכותית על מקומות העבודה

אסטרטגיות להפחתת הטיית בינה מלאכותית


הטיה אלגוריתמית בבינה מלאכותית היא אתגר עולמי שאנו רק בתחילת הדרך להתמודד איתו ביעילות. הדוגמאות והמאמצים שהוצגו מבהירים שהטיית בינה מלאכותית אינה סוגיה שולית – היא משפיעה על הזדמנויות כלכליות, צדק, בריאות ומרקם חברתי ברחבי העולם.

החדשות הטובות הן שהמודעות גברה משמעותית, וקונצנזוס מתהווה כי הבינה המלאכותית חייבת להיות ממוקדת אדם והוגנת.

השגת מטרה זו תדרוש ערנות מתמשכת: בדיקות שוטפות של מערכות AI להטיה, שיפור נתונים ואלגוריתמים, מעורבות בעלי עניין מגוונים ועדכון רגולציות ככל שהטכנולוגיה מתפתחת.

בלב המאבק בהטיה האלגוריתמית עומדת המטרה של ליישר את הבינה המלאכותית עם ערכי השוויון וההוגנות שלנו. כפי שציינה מנהלת אונסק"ו, אודרי אזולאי, אפילו "הטיות קטנות בתוכן [של AI] יכולות להעצים משמעותית אי-שוויונות בעולם האמיתי".

לכן, המרדף אחרי בינה מלאכותית נטולת הטיות הוא קריטי כדי להבטיח שהטכנולוגיה תרים את כל מגזרי החברה במקום לחזק דעות קדומות ישנות.

על ידי מתן עדיפות לעקרונות אתיים בעיצוב הבינה המלאכותית – ותמיכה בהם בפעולות ומדיניות קונקרטיות – נוכל למנף את כוח החדשנות של הבינה המלאכותית תוך שמירה על כבוד האדם.

הדרך קדימה עבור הבינה המלאכותית היא כזו שבה מכונות חכמות לומדות מהערכים הטובים ביותר של האנושות, לא מההטיות הגרועות שלנו, ומאפשרות לטכנולוגיה להיטיב עם כולם באמת.