הקדמה- בהליך פלילי, כדי להרשיע אדם אשר נתפסה אצלו ראיה מפלילה, כמו סם, אין די בהוכחת קיומה של הראיה. על המשטרה להוכיח כי הדרך שבה התקבלה הראיה הייתה חוקית. אם יתברר כי הראיה הושגה באמצעים פסולים, ניתן לעתור לבית המשפט לפסול אותה. כך, לדוגמה, ניתן להפעיל את דוקטרינת הפסילה הפסיקתית שנקבעה בהלכת יששכרוב או את סעיף 56 לפקודת הראיות, המסדיר את השימוש בראיה שהושגה שלא כדין.
אפליה על רקע נטייה מינית בהליכי אכיפת חוק
לאורך שנות עבודתי כעורך דין פלילי, נחשפתי למקרים רבים שבהם הופעלה אפליה נגד אנשים על רקע נטייתם המינית, גם במסגרת הליכים פליליים. במקרים מסוימים, שוטרים ביצעו חיפושים לא חוקיים על סמך פרופיילינג, שהתבסס על חזות חיצונית המעידה, לכאורה, על נטייתם המינית של החשודים. אירועים כאלה התרחשו גם בנתב"ג, ותועדו בוידאו במהלך חקירות.
מקרה לדוגמה: השגת תקדים בתחום פסילת ראיות
לפני כשנתיים ייצגתי נאשם, גבר גיי, שנעצר בנתב”ג עם שובו מחו”ל, כאשר במזוודתו נתפסו סמים מסוג GBL בכמות של ליטר וחצי. במהלך עיון בתיק החקירה, התברר כי הפרקליטות מסרבת להעביר לידי מסמך סודי, בטענה שחשיפתו תסכן את אמצעי האכיפה של המשטרה. עם זאת, לא ניתן היה הסבר מדוע נערך החיפוש דווקא לנאשם ולא לאחרים שהיו עמו בטיסה.
בעתירה לגילוי ראיה חסויה, טענתי לראשונה במשפט הישראלי כי בנתב”ג נעשה שימוש בבינה מלאכותית באופן בלתי חוקי. הראיה המרכזית לטענה זו הייתה קיומן של מצלמות זיהוי פנים חכמות, אשר סורקות את תווי הפנים של הנוסעים. על בסיס הניסיון והידע במדינת ישראל – הידועה בהובלתה בטכנולוגיות מתקדמות – טענתי כי החומר הסודי עשוי להוכיח שהשימוש בבינה מלאכותית גרם לאפליה ופגע בזכויות הנאשם.
הסכנות בשימוש בבינה מלאכותית באכיפת חוק
בינה מלאכותית, על אף יכולותיה המרשימות, עלולה להוביל לפגיעה בזכויות יסוד. אחד הסיכונים המשמעותיים הוא יצירת סטריאוטיפים והעמקת דעות קדומות. מחקרים באנגליה ובארצות הברית הראו כי מערכות חיזוי פשיעה המבוססות על בינה מלאכותית מפלות לרעה אוכלוסיות מיעוטים, דוגמת האפרו-אמריקאים.
באופן דומה, מחקר שנערך באוניברסיטת סטנפורד הוכיח כי בינה מלאכותית יכולה לזהות נטייה מינית לפי תווי פנים בדיוק של 92%, לעומת 63% בלבד בזיהוי אנושי. מחקרים נוספים הראו כי ניתן לנבא נטייה מינית גם על בסיס קשרי חברויות בפייסבוק. כאשר נתונים אלה משמשים לאימון אלגוריתמים, הם מבססים פרופיילינג שעלול להוביל להפליה פסולה.
השלכות המקרה והתקדים המשפטי
במסגרת התיק, חשפתי לראשונה כי משטרת ישראל השתמשה במשך 12 שנים באלגוריתם בינה מלאכותית בנתב”ג, מבלי ליידע את הציבור. האלגוריתם, שפעל כ”קופסה שחורה” ללא ביקורת אנושית, הוביל להחלטות שנעשו על בסיס נתונים לא שקופים. כתבת תחקיר שפורסמה בעקבות המקרה הראתה כי המשטרה מחזיקה מידע על נטיות מיניות של חשודים – נתון שעלול לשמש לאימון האלגוריתם.
בית משפט קיבל את טענותיי והטיח ביקורת חריפה בפרקליטות, בעקבות זאת הודיעה הפרקליטות לבג"צ כי המשטרה הפסיקה את השימוש באלגוריתם מיד לאחר אותה ביקורת עד להסדרה חוקית באמצעות חקיקה בכנסת.
במסגרת החלטה זו הורה בית המשפט לפרקליטות להעביר לידי את המידע אודות הDATA עליו מתבסס האלגוריתם, בעקבות זאת ובכדי להימנע מהעברת החומר הסודי ביטלה הפרקליטות את כתב האישום ולאחר מכן הגישה ערעור לבית המשפט העליון.
כב’ השופט עידו דרויאן קבע בפסק הדין:
“בלשון פשוטה וברורה – האם ניתן לקבל מצב שבו נאשם אינו יודע איך ומדוע החליטה הרשות לעכבו ולערוך חיפוש בכליו? האם לא נאמר שנפגעו זכותו ויכולתו להתגונן מפני אישום?”
סיכום
המקרה מהווה נקודת מפנה בתחום זכויות האדם והטכנולוגיה. הוא מדגיש את החשיבות בשמירה על זכויות הפרט ובצורך לבחון בקפדנות את השימוש בבינה מלאכותית במערכות אכיפת החוק. החלטות לא שקופות, המבוססות על נתונים מוטים, עלולות להוביל לאפליה ולפגיעה חמורה בזכויות יסוד, במיוחד בקרב אוכלוסיות מיעוט. המשפט הישראלי חייב להמשיך ולהתמודד עם אתגרי הבינה המלאכותית ולוודא כי היא משמשת ככלי הוגן ולא מפלה.
לקריאת ההחלטה המלאה:
Comments