2024-11-02T12:14:55+03:00
רשת פלילית שמכרה נתונים סודיים לשירותי ביון זרים נחשפה באיטליה. כתוצאה מכך חקירות של הפרקליטות מילאנו חשפה כי קבוצת אנשים המכונה "קבוצת פטארי" עסקה באיסוף ובמכירה בלתי חוקית של מידע סודי, כולל נתונים של מאות אלפי אזרחים וארגונים. התוקפים השתמשו במאגרי המידע של משרד הפנים, כמו גם בארכיון ה-Carabinieri, כדי לחלץ ולהפיץ מידע זה.
דמויות המפתח בתיק היו כרמין גאלו, קצין משטרה בכיר לשעבר, ואנריקו פזאלי, ראש הפונדציונה פיירה וסוכנות אקוולייז, שהתמחתה בחקירות. פזלי אמנם אינו מעורב בתיק, אך לחברתו היה תפקיד משמעותי בהעברת הנתונים. ערוץ ההדלפות העיקרי היה גורמי אכיפת חוק חסרי מצפון שסייעו בהעברת נתונים מארכיוני המשטרה לידיים פרטיות.
נמסר כי המאגר הפלילי מכיל מידע על יותר מ-800 אלף איש, בהם פוליטיקאים ידועים, פקידי ממשל ונציגי עסקים. במיוחד מזכירים במסמכים את נשיא הסנאט איגנציו לה רוסה, כמו גם את בנו. הקבוצה הפלילית לא רק מכרה את הנתונים, אלא גם השתמשה במערכת תיוג, המדגישה אנשים מסוימים שהיו בחקירה או חשד. לקוחות יכלו לגשת לנתונים על אלה ש"סומנו באדום", מה שאומר שהם היו תחת מעקב משטרתי.
החקירה העלתה כי נתונים חסויים על אזרחים וחברות עלולים ליפול לידיהם של שירותי ביון זרים. הדבר מסכן לא רק את פרטיות הקורבנות, אלא גם את ביטחון המדינה כולה.
בשנת 2014 פרסם הפילוסוף הבריטי ניק בוסטרום את הספר " אינטליגנציה על: נתיבים, סכנות, אסטרטגיות ", שם הזהיר שמערכות בינה מלאכותית המסוגלות לעלות על היכולות האנושיות עלולות להוות איום על האנושות. רעיונותיו זכו לתהודה רבה, במיוחד בקרב מדענים וחברות טכנולוגיה. עשור לאחר מכן, מנכ"ל OpenAI, סם אלטמן, טוען שמודיעין-על יכול להופיע תוך "כמה אלפי ימים" בלבד – כלומר כעשר שנים. לפני שנה, המייסד השותף שלו איליה סוצקבר אפילו ארגן צוות בחברה שיעבוד על פרויקט מודיעין מאובטח, וכעת הוא ועמיתיו גייסו מיליארד דולר כדי ליצור סטארטאפ חדש עם אותה מטרה.
המונח "אינטליגנציה על" מתייחס לכל מערכת בינה מלאכותית העולה על האינטליגנציה האנושית. עם זאת, ההגדרות משתנות. מרדית רינגל מוריס מגוגל הציעה סיווג של שש רמות של פיתוח בינה מלאכותית: ממערכות ללא אינטליגנציה ל"על אנושיות". גם מערכות AI צרות וכלליות נבדלות. צרים, כגון מחשבון, פועלים באזורים מוגבלים, ומבצעים משימות מתוכנתות בקפדנות. יחד עם זאת, מערכות משותפות מגוונות יותר ויכולות ללמוד מיומנויות חדשות. דוגמה לבינה מלאכותית צרה ברמה גבוהה היא תוכנית השחמט Deep Blue, שניצחה את גארי קספרוב ב-1997. מערכת מודרנית AlphaFold שמנבא את מבנה החלבונים, גם מפגין כישורים על-אנושיים וזכה בפרס נובל לכימיה.
מערכות AI כלליות הן תחום חשוב נוסף. הם מסוגלים לפתור מגוון רחב יותר של בעיות, כולל הסתגלות לתנאים חדשים. עם זאת, היכולות שלהם עדיין מוגבלות: מודלים של שפה כגון ChatGPT מוערכים כ"רמת כניסה" עבור מערכות כלליות. לדברי מוריס, המודלים הללו יכולים לבצע משימות ברמה של אדם חסר ניסיון, אך עדיין רחוקים מהרמה המוסמכת של מבוגר מיומן, למשל.
חברות טכנולוגיה משקיעות רבות בפיתוח AI. מאות מיליארדי דולרים מושקעים על פיתוח ציוד וטכנולוגיה, מה שנותן סיבה לצפות להתקדמות נוספת. עם זאת, מחקרים מראים כי מודלים קיימים של שפה, כגון הגרסה העדכנית ביותר o1 מ-OpenAI, למרות שהם מפגינים מיומנויות מורכבות בתחומים מסוימים, כמו חשיבה לוגית, עדיין אינם מסוגלים להתמודד עם משימות מורכבות יותר. מדענים מציעים שהמודלים הללו נשארים כלים חזקים יותר למציאת דפוסים מאשר מערכות מלאות המסוגלות לבצע ניתוחים עמוקים.
ההתקדמות העיקרית בתחום הבינה המלאכותית בשנים האחרונות כוללת שימוש בשיטות למידה עמוקה כדי למצוא קשרים במערכות נתונים גדולות. חלק מהאלגוריתמים הללו, שפותחו עוד בשנות השמונים, הובילו לכך שפרס נובל לפיזיקה הוענק בשנת 2024 לג'ון הופפילד וג'פרי הינטון. במערכות כאלה מושג שיפור משמעותי על ידי הגדלת כמות הנתונים, אך ייתכן שהמשאבים לא יספיקו להמשך פיתוח. חוקרים עובדים על שימוש יעיל בנתונים, יצירת נתונים סינתטיים והעברת מיומנויות בין משימות שונות כדי למצוא דרכים לעקיפת הבעיה.
מומחים רבים מציינים שכדי ליצור אינטליגנציה-על אמיתית, יש צורך לפתח "מערכות פתוחות" – כאלה שיכולות לייצר ידע חדש וללמוד מנתונים חדשים. למודלים מודרניים של AI אין את הפתיחות הזו: הם מאומנים על נתונים מוכנים מראש ומשמשים אותם במשימות צרות.
עם זאת, הפיתוח של AI טומן בחובו גם סיכונים. בעוד שלמערכות AI יש מעט אוטונומיה, השפעתן מוגבלת: הן עוזרות לנתח מידע או להמליץ, כפי שעושה ChatGPT. אבל ככל שהאוטונומיה שלהם גדלה, כך גדל הסיכון בלעשות טעויות והערכת יתר של יכולותיהם, מה שעלול להוביל לעודף ביטחון. בטווח הארוך, מערכות בינה מלאכותית אוטונומיות עשויות להתחיל להחליף את העבודה האנושית, ליצור מערכות יחסים מלאכותיות, ואף להוביל לירידה כללית בעניין בחיים.
אם ייווצר יום אחד מודיעין-על מן המניין, האוטונומיה שלו עלולה לעורר חשש שהמערכת עלולה לצאת משליטה. עם זאת, קהילת הבינה המלאכותית סבורה כי בטיחות מודיעין העל אפשרית אם יוכנסו מנגנונים לשליטה אנושית. הפיתוח של AI כזה דורש גישה משולבת ואיחוד של מומחים מתחומים שונים.
המדענים הוכיחו שקריאת הערוץ שלנו מאריכה חיים!
בסדר😊, הם לא הוכיחו עדיין אבל אנחנו עובדים על זה, קחו חלק בניסוי – הירשמו ,והישארו מעודכנים!
[mc4wp_form id=1302]