את מי להציל במקרה של תאונה – את הנהג או את הולכי הרגל? לפני שנוכל להתחיל לנסוע במכוניות ללא נהג, יהיה עלינו ללמד אותן להתמודד עם שאלות מוסריות
מוסר כולל בתוכו את ההבחנה בין התנהגויות שנחשבות טובות לאלה שנחשבות רעות. אולם במקרים רבים המציאות מחייבת לשקול בין כמה ברירות טעונות מבחינה מוסרית, שכל אחת מהן תגרום נזק אחר. כולנו מקבלים החלטות רבות באופן יומיומי, למשל כשאנחנו נוהגים על הכביש, ולא פעם צריכים להתחשב גם בשיקולים מוסריים. אולם מה תעשה מכונית אוטונומית באותו מצב? מתכנני כלי הרכב ללא נהג אנושי, שבהם ככל הנראה ניסע בעתיד הלא רחוק, נדרשים להטמיע בהם כללי התנהגות שידמו שיפוט מוסרי אנושי.
דוגמה לקושי בשיפוט מוסרי מציגה הדילמה המחשבתית של בעיית הקרונית. דמיינו לרגע קרונית רכבת נעה על מסילה שבהמשכה נמצאים חמישה אנשים שלא יכולים לברוח, כך שאם לא נעשה כלום הקרונית תדרוס אותם. בגרסה אחת של הבעיה באפשרותכם למשוך בידית שתסיט את הקרונית למסילה אחרת שעליה יש רק אדם אחד. האם תפנו את הקרונית כך שהיא תפגע באדם האחד, או שלא תתערבו וכך תביאו במחדל למותם של חמישה? במקרה זה, רוב האנשים אומרים שימשכו בידית.
בגרסה שנייה של הבעיה, הדרך היחידה להציל את החמישה היא לדחוף אדם מגשר כדי שיעצור את הקרונית בגופו. במקרה הזה, רוב האנשים עונים שלא ידחפו את האדם. עם זאת, מבחינה רציונלית אין הבדל בין הבעיות: אם לא תפעלו ימותו חמישה אנשים, ואם תעשו פעולה ימות רק אדם אחד. אך נראה שדחיפת אדם מגשר היא מעשה הרבה יותר קשה עבורנו ממשיכה של ידית.
איך לבחור בין כמה אפשרויות, שכל אחת מהן תגרום נזק אחר? אילוסטרציה של דילמה מוסרית, בין השטן למלאך | Shutterstock, VectorMine
דילמות רובוטיות
מוסר הוא אם כן עניין מורכב עבורנו, בני האדם. אז מה קורה כשמעמידים דילמות מוסריות בפני מערכות בינה מלאכותית, כמו זאת שיש לכלי רכב אוטונומיים?
מכוניות אוטונומיות הן כלי רכב שאמורים לנסוע ולנווט ללא התערבות אנושית פעילה. כדי להמחיש את מורכבות סוגיית המוסר של מכוניות כאלו, קחו לדוגמה את המצב הבא: אתם נוהגים במכונית ומוצאים את עצמכם מוקפים בכלי רכב אחרים. מימינכם נמצא רוכב אופנוע ללא קסדה, לפניכם משאית עמוסה בציוד כבד ומשמאלכם ג'יפ גדול.
לפתע פתאום נופל מהמשאית צינור כבד היישר לכיוונכם. יש לכם שלוש ברירות: לא לעשות כלום ולספוג את המהלומה, לשבור את ההגה שמאלה ולהתנגש בג'יפ, או לשבור ימינה ולפגוע באופנוע. האם תבחרו לדאוג לביטחונכם האישי ותתנגשו באופנוע? תעדיפו לא לגרום נזק לאחרים ותסכנו את חייכם בנסיעה ישר? או אולי תתנגשו בג'יפ ותסמכו על דירוג הבטיחות הגבוה שלו?
אם אדם ינהג במכונית במצב מורכב כזה, נבין פחות או יותר כל תגובה שיקבל, משום שנראה בה התנהגות אינסטינקטיבית בתנאי לחץ. אבל במכונית אוטונומית המצב שונה – התגובה שהיא תבחר היא זאת שבחרו עבורה מראש המתכנתים שלה.
את הניסוי המחשבתי הזה אפשר לקחת לעוד מקומות רבים. אם, לדוגמה, מצד אחד שלכם נוסע רוכב אופנוע חבוש קסדה ובצד השני רוכב שראשו חשוף. האם מוטב שהמכונית תפגע ברוכב הממוגן, כי סיכוייו לשרוד טובים יותר, או ברוכב השני, כי הוא נהג באופן לא אחראי ולא הוגן להעניש את הרוכב הראשון על זהירותו?
מה קורה כשמעמידים דילמות מוסריות בפני מערכות בינה מלאכותית? אילוסטרציה של מכונית אוטונומית נוסעת בכביש | Shutterstock, posteriori
ידע הוא כוח
אחת השאלות שמעסיקות חוקרים בתחום היא מהו המידע שמכוניות אוטונומיות אמורות לבסס עליו את החלטותיהן. ניסוי המכונה המוסרית, למשל, עסק בשאלות שמבוססות על תכונות כמו גיל, משקל ותעסוקה. הנבדקים - וכל מי שנכנס לאתר - הועמדו בפני דילמות והיו צריכים לציין איזו החלטה צריכה לקבל המכונית האוטונומית, למשל, האם עליה להעדיף להרוג גבר או אישה? אדם רזה או שמן? צעיר או מבוגר?
ממצאי המחקר הראו כי אנשים חושבים שבמצבים מסוימים יש להעדיף את חייהם של אנשים בעלי תכונות מסוימות – למשל אנשים צעירים, רזים ועם עבודות נחשבות כמו מנכ"לים ורופאים - אולם המבקרים טוענים כי המחקר נבנה כך שהמשתתפים היו חייבים לבחור לפגוע במישהו מסוים, ולא ניתנה להם אפשרות לא לבחור, כלומר לאפשר פגיעה אקראית באחד מהאנשים.
מחקר אחר, שניסה לבדוק אם אנשים באמת מעדיפים שהמכוניות האוטונומיות יקבלו החלטות על בסיס תכונות, מצא שרובם מעדיפים שמכוניות אוטונומיות יתייחסו באופן שווה לכל האנשים המשתמשים בדרך. כלומר, אנחנו מעדיפים שהמכוניות לא יקחו בחשבון פרטים דמוגרפיים כמו גיל ותעסוקה כשהן מקבלות החלטות.
רגולציה של מוסר
המחקרים האלה מראים את החשיבות של המחשבה והתכנון בפיתוח מכוניות אוטונומיות – לפי אילו כללי מוסר היצרנים אמורים לתכנת את המכוניות הללו. אולם מעבר לכך עלינו לשקול גם בידי מי עלינו להפקיד את הסמכות לקבוע את החוקים. האם כללי האתיקה של הנהיגה האוטונומית צריכים להיות כלליים – כלומר להיקבע על ידי רשויות המדינה או אפילו אמנות בינלאומיות? או שמא אפשר להשאיר אותם לסמכותו של כל יצרן ויצרן, כך שלכל כלי רכב תהיה מערכת כללים משלו והקונים יבחרו את כללי המוסר שהם רוצים להתקין במכונית החדשה שלהם?
המדינה הראשונה שהתמודדה עם השאלות האלה היא גרמניה, שניסחה הנחיות לקבלת החלטות במכוניות אוטונומיות. על פי ההנחיות הללו, במקרה של תאונה בלתי נמנעת, על המערכת האוטונומית להפחית את מספר הנפגעים, אך אסור שהיא תקבל החלטה על פי מאפיינים אישיים כמו גיל, מין וכו'. סביר להניח שעם הזמן נראה יותר ויותר מדינות שמאמצות הנחיות דומות.
שאלה נוספת שעולה היא אם אנשים חושבים שרכב אוטונומי צריך לקבל החלטות תועלתניות, שמטרתן למזער את הנזק ככל שרק אפשר - ואם כן, אם יסכימו לנסוע בכלי רכב שיתוכנת להקריב את חייהם כדי למנוע מוות של כמה הולכי רגל או כמה אנשים במכונית הסמוכה.
כדי לבדוק את זה הציגו חוקרים לנבדקים דילמה שונה, וביקשו מהם לבחור בין מצב שבו המכונית תתנגש בקיר ותהרוג את הנהג, לבין מצב בו היא תסטה מדרכה ותדרוס קבוצת הולכי רגל. נמצא שאנשים מסכימים שכלי רכב אוטונומיים צריך לתכנת כך שהפגיעה בחיים אדם תהיה מזערית, והם יעדיפו להקריב את חיי הנהג על פני פגיעה גדולה יותר בזרים. אולם כשנשאלו אם יסכימו לנהוג במכונית כזאת, אנשים העדיפו להשאיר את זה לאחרים. כלומר קיים פער בין הכללים שאנשים חושבים שהמכוניות הללו צריכות לציית להם, לבין האמון האישי שהם נותנים בכלי רכב שתוכנת כך.
על פי ההערכות, מכוניות אוטונומיות צפויות להפחית משמעותית את מספר ההרוגים בתאונות דרכים. אולם היות שהן אמורות להיות מתוכנתות מראש להתמודדות עם מצבים מורכבים, עלינו לשקול לעומק את השאלות המוסריות הקשורות בשימוש בהן. המוסר של מערכות אוטונומיות מעלה שאלות מורכבות שצריכות להעסיק לא רק את היצרניות, אלא גם את רשויות המדינה ואפילו אותנו – הצרכנים.