אומרים שימוש אחראי ב-AI? זה מס שפתיים הכרחי

האישור של האיחוד האירופאי לגבי ערכת כלים להתמודדות עם הסכנות והבעיות האתיות שנמצאות בבסיס של השימוש בבינה מלאכותית, ערכת תקנות וחוקים שכבר זכתה לכינוי EU AI, היא אחד הצעדים החשובים ביותר בתחום הבינה המלאכותית שהפכה לכה פופולרית בשנתיים האחרונות פחות או יותר.

החשיבות של חוק הבינה המלאכותית הזו הוא בעצם העובדה שהוא שם במרכז הבמה הרגולטורית את העובדה שהבינה המלאכותית מסוכנת בהיבטים רבים שלה בדיוק כמו שהיא יכולה להטיב. הוא חשוב מכיוון שהממשל האירופאי בעצם יכריח את החברות העוסקות בתחום להתחיל לקחת אחריות, וכמו שגופים רבים בשוק הטכנולוגי יודעים, הקנסות מגיעים מהר מאוד שבאיחוד פותחים בחקירה לגבי נושא טכנולוגי כזה או אחר – גוגל (Google), מיקרוסופט (Microsoft), אפל (Apple) ואחרות ראו איך אחר פעם הן נאלצות לשנות את ההתנהלות שלהם ביבשת האירופאית, לעומת מקומות אחרים בעולם, כשהאיחוד מתעקש על כך.

האיחוד הפך לסוג של אור לגוים, במיוחד שבצפון אמריקה הממשל האמריקאי בעיקר, אבל גם הקנדי, מפחדים ללכת עד הסוף ולהטיל אחריות. הקפיטליזם עדיין חזק מאוד, למרות שאי אפשר להתעלם מהצעדים שעושים במשרד המשפטים כדי להילחם במונופלים הגדולים.

האם זה יגרום לשינוי מהותי במה שקורה בשוק? לא בטוח, כי גם באיחוד לא רוצים למשוך את השטיח מתחת לפעילות הבינה המלאכותית הענקית שמתרחשת בכל מקום ברחבי היבשת, וגם בעולם – המטרה היא סוף סוף להתחיל לפקח עליה.

ואלה שמדברים על אחריות

זה בוודאי טוב הרבה יותר מכל מיני מכתבים וקולות קוראים, ומסמכים, וניירות עמדה וכדומה שעליהם חתומים אנשים מובילים במשק, אנשי מדע וכדומה שקראו לקחת אחריות, כמו זה שעליו חתמו לאחרונה מאות מדענים מרחבי העולם, כי הם חוששים מאוד מהאפשרות שהשימוש בבינה מלאכותית מתקדמת יעזור ליצור נשק ביולוגי המבוסס על חלבונים מהונדסים.

האם הם חושבים שיש מישהו שבאמת יכול לעצור אדם או גוף שרוצים לגרום נזק? זה מה שלימדו אותנו החיים עד היום, בטח בגרסתם המודרנית? רק בסרטים יש מדענים מטורפים או אנשים עם יותר מדי כסף, וגם בלי, שפשוט רוצים להרע לעולם? הרי מספיק מדען אחד על כל 1,000, על על 10,000 או כל 100,000 שיחליט שהוא משתמש בבינה מלאכותית כדי ליצור נשק ביולוגי מבוסס חלבונים מהונדסים. החסרנו קונספרציות? החסרנו גופים ממשלתיים שמחליטים בכל זאת לעשות את זה, או שלא, תלוי באיזה צד של המפה נמצאים באותו רגע עוד לפני שהייתה כאן בינה מלאכותית שרק תזרזר עניינים? האם חסר איזה גוף פשע, אחד מעשר, אחד ממאה או אחד מאלף שכיום מנסה לגרום לחברות לשלם הרבה כסף עם השתלת כופרה בשרתים שלהם שיחליט שאולי זה יצליח יותר עם חלבון שהוא יכול להנדס אפילו לבד אם לא לקנות?

אי אפשר להחזיר את הגלגל. הבינה המלאכותית התפרצה לחיים שלנו בלי מספיק מנגונני הגנה, ואי אפשר כמובן לא להחזיר את הגלגל אחורה וגם לא להתעלם מהדברים הטובים שהיא יכולה לתרום לחיים בכלל, ובטח למדע – או כפי שמציינים המדענים עצמם, לזרז את הייצור של תרופות בעת שיש צורך בתגובה מהירה למגפה כדוגמת הקורונה שכמובן עוד עמוק בקרבנו.

אבל אפשר להפסיק לדבר על זה, ואני לא רוצה לכתוב מילים חריפות יותר – המכתב הזה כמו נאומים של עוד רבים אחרים במשק, כולל הטכנולוגי, זה לא יותר ממס שפתיים. כי אומרים משהו שחייבים לומר, כנראה. אל תעשו שימוש לרעה. נקודה, תפסיקו לספר שלא תעשו את זה.

עוד לא אבדה תקוותי

התקווה שלי שההחלטה הזו של האיחוד תשנה את הכיוון, במקום לדבר להתחיל לעשות. אני מקווה שזה כמו בנושא של הגנת הפרטיות הדיגיטלית, כמו בנושאים אחרים בהם התערבו הגופים של האיחוד האירופאי, גם EU AI יוביל לחקיקה של חוקים ברורים ומוגדרים שיאפשרו לפעול באמת מול מי שינסה להשתמש בבינה מלאכותית לרעה – ויותר חשוב, שיתקדמו הלאה ויבנו גוף אכיפה אירופאי משולב שידע להתמודד עם הבעיות שאם עוד לא צצו, בהחלט יגיעו. שלא יהיה ספק.

הרי ברור שיהיו כאלה שבכל מקרה יעשו שימוש לרעה, וזה לא יעזור, כי כבר יש כאלה, רק צריך לקוות שכוחות אכיפת החוק אכן ידעו לעצור פעילות כזו בזמן. אולי כדאי שישתמשו ב-ChatGPT.

מבוסס על טור שכתבתי לאנשים ומחשבים
תמונות: Pixabay

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *