כותרות

כמה בטוחה ומדויקת היא טכנולוגיית זיהוי הפנים האוטומטית המותקנת בכניסה

כוחות משטרה וכוחות ביטחון ברחבי העולם בוחנים מערכות אוטומטיות לזיהוי פנים על מנת להשתמש בהן ככלי לזיהוי עבריינים וטרוריסטים. אך עד כמה הטכנולוגיה הזו מדויקת וכמה בקלות היא והבינה המלאכותית (AI), שעל בסיסה היא מתפקדת, הופכים לכלי רדיפה ודיכוי?

תכונות מערכת

תאר לעצמך שחשוד במחבל נשלח למשימת התאבדות למרכז עיר צפוף. אם הוא יפיל פצצה, מאות אנשים עלולים למות או להיפצע קשה. הנוהל לסריקת פנים בקהל באמצעות מעקב וידאו מאפשר לך לזהות תוקף ומשווה אוטומטית את המאפיינים שלו עם תמונות במאגר של טרוריסטים מפורסמים או "אנשים מעניינים" לשירותי אבטחה.

במקרה של צירוף מקרים, המערכת מעלה את האזעקה, וכוחות התגובה המהירה לטרור נשלחים למקום בו הם "מנטרלים" את החשוד לפני שהוא יכול להפעיל את הנפץ. מאות חיים ניצלו בזכות הטכנולוגיה המודרנית.

בעיות אפשריות בעבודה

אבל מה אם טכנולוגיית זיהוי פנים (FR) לא הייתה עובדת נכון? והתברר שהוא לא טרוריסט, אלא אדם רגיל שהיה פשוט חסר מזל והוא התגלה כמו תוקף. חיים תמימים היו נהרסים פשוט מכיוון שגם המומחים האמינו במערכת שגויה. אבל מה אם תתגלה כאדם כזה?

זו רק אחת הדילמות האתיות העומדות בפני מערכת זיהוי הפנים והבינה המלאכותית. ממש קשה להכשיר מכונות "לראות", להכיר ולהבחין בין חפצים ופנים. באמצעות ראיית מחשב, כפי שהיא מכונה לפעמים, לפני זמן לא רב, ניסו החוקרים לקבוע את ההבדל בין לחמניות עם צימוקים לבין צ'יוואווה, שהפך למעין מבחן לקמוס לקביעת היעילות של טכנולוגיה זו.

קשיים בזיהוי פנים

טכנולוגי מחשבים, ג'וי בואולמוויני, שייצג את המעבדה במכון הטכנולוגי של מסצ'וסטס (ובמקביל מייסד ליגת הצדק האלגוריתמית), ותמנית ג'ברו, מנהלת שותפה טכנית של צוות גוגל בנושאים אתיים הקשורים לבינה מלאכותית, הראו כי מערכת זיהוי הפנים קשה. מבחין בין גברים לנשים אם עורם מספיק כהה. המערכת טעה לעתים קרובות נשים עם עור כהה לגברים.

"כ -130 מיליון אמריקאים בוגרים כבר נמצאים במאגרי זיהוי פנים", אמר ד"ר ג'ברו במאי בוועידת ה- AI for Good בג'נבה. "אבל מערכי הנתונים המקוריים מכילים בעיקר נציגים של הגזע הלבן, שביניהם יש הרבה יותר גברים." לכן, כאשר מכירים אנשים עם סוג עור כהה יותר, עדיין יש אחוז עצום של טעויות עקב סוג העור והמין.

שימוש בטכנולוגיה

העיר סן פרנסיסקו בקליפורניה אסרה לאחרונה על שימוש בזיהוי פנים על ידי גורמי תחבורה ואכיפת החוק מתוך הכרה בחסרונותיה ובאיומים על חירויות אזרחיות. אולם ערים אחרות בארצות הברית ובמדינות אחרות בעולם ממשיכות להתנסות בטכנולוגיה זו.

בבריטניה, למשל, כוחות המשטרה בדרום ויילס, לונדון, מנצ'סטר ולסטר, בוחנים טכנולוגיה זו, שמפחידה ארגוני חירויות אזרחיות כמו ליברטי ו"האח הגדול ", המודאגים מכמות ההתאמות השגויות המתרחשות במהלך פעולת המערכת.

טעויות ופחדים

בפועל זה אומר שאנשים חפים מפשע נקראים בטעות עבריינים פוטנציאליים. לדברי ד"ר ג'ברו, בעיות כאלה בהחלט צריכות לגרום לדאגה לכולם. השימוש באמצעי מניעה וחיזוי כזה כרוך בשיעורים גבוהים.

בהתחשב בעובדה שאמריקאים שחורים מהווים 37.5% מכלל האסירים בארצות הברית (לפי נתוני הלשכה הפדרלית), למרות העובדה שהם מהווים רק 13% מאוכלוסיית ארה"ב, אלגוריתמים כתובים בצורה גרועה המשתמשים במערכי הנתונים הזמינים כעת יכולים לחזות שאנשים שחורים נוטים יותר לפשע. אינך צריך להיות גאון כדי להבין מה זה יכול להיות עבור מדיניות משטרתית וחברתית.

לאחרונה, מדענים מאוניברסיטת אסקס הגיעו למסקנה כי צירופי המקרים ששימשו במשפטים במשטרת לונדון טעו ב -80%, מה שעלול להוביל לפגיעה קשה בצדק ולהפרה של זכותם של האזרחים לפרטיות.

בריטי אחד, אד ברידג'ס, החל בתביעה בנושא השימוש בטכנולוגיית זיהוי פנים על ידי משטרת דרום ויילס לאחר מכן הצילום שלו צולם בזמן הקניות, והממונה הבריטי למידע, אליזבת דנהאם, הביע חשש מהעדר מסגרת חוקית המסדירה את השימוש בטכנולוגיית הכרה.

אך פחדים כאלה לא הפריעו לענקית הטכנולוגיה אמזון למכור את כלי ה- Rekognition FR שלה למשטרת ארה"ב, למרות מהומה מהוססת של בעלי המניות שעדיין לא הובילה לשום דבר.

סיכויים

אמזון אומרת שהיא אינה אחראית לאופן שבו הלקוחות משתמשים בטכנולוגיה שלה. אך השווה קשר זה עם Salesforce, טכנולוגיה לניהול קשרי לקוחות, שפיתחה כלי זיהוי תמונה משלה הנקרא איינשטיין ויז'ן.

"טכנולוגיית זיהוי פנים עשויה להתאים בכלא כדי לעקוב אחר אסירים או למנוע אלימות כנופיות," אמר ה- BBC Salesforce, מומחה לבינה מלאכותית אתית ב- BBC. אולם כאשר המשטרה רצתה להשתמש בה יחד עם מצלמות בעת מעצרים של אנשים, החברה מצאה זאת לא הולם. במקרה זה, יש לשאול האם יש צורך להשתמש ב- AI באופן כללי בתרחישים מסוימים, ואחת הדוגמאות היא זיהוי פנים.

נכון לעכשיו, טכנולוגיה זו משמשת גם את הצבא, שכן ספקי הטכנולוגיה טוענים כי התוכנה שלהם לא יכולה רק לזהות אויבים פוטנציאליים, אלא גם לזהות התנהגות חשודה.


הוסף תגובה
×
×
האם אתה בטוח שברצונך למחוק את התגובה?
מחק
×
סיבת התלונה

עסקים

סיפורי הצלחה

ציוד