ראשי חדשות השבוע מוזילה תשלם מיליונים על סירובה לציית

מוזילה תשלם מיליונים על סירובה לציית

על ידי Security News
0 תגובות 5 דקות לקריאה

2024-11-05T21:07:36+03:00

בית המשפט המחוזי בטגנסקי במוסקבה הטיל קנס מנהלי בסך 3.5 מיליון רובל על תאגיד מוזילה, הידוע כמפתח דפדפן מוזילה פיירפוקס, בגין אי מילוי החובה למחוק מידע האסור על פי החקיקה של הפדרציה הרוסית. על זה דיווח בערוץ הטלגרם הרשמי של בתי המשפט של מוסקבה בסמכות השיפוט הכללית.

בית המשפט מצא את Mozilla Corporation אשמה בהפרת הדרישות של חלק 2 של סעיף 13.41 של קוד העבירות המנהליות של הפדרציה הרוסית, המסדיר את החובות של בעלי אתרים ומשאבי מידע להסיר מידע אסור.

Mozilla Corporation היא חברת בת של קרן Mozilla, שנוצרה ב-3 באוגוסט 2005. היא קיבלה את האחריות לפיתוח והפצה של דפדפן האינטרנט Mozilla Firefox.

נראה שהאופוריה סביב בינה מלאכותית נמצא בירידה . וענקיות הטכנולוגיה מעלות חששות גוברים לגבי בועה בתעשיית הטכנולוגיה הינרטיבית.

כפי שמסר אנליסט בקרן הסיכון Sequoia דוד קאן נחוצות הכנסות שנתיות מתוכנה של 600 מיליארד דולר כדי להצדיק את ההשקעה העצומה בתשתית בינה מלאכותית. עם זאת, כרגע, חברות כמו OpenAI, Microsoft ו-Palantir מרוויחות רק כ-17 מיליארד. לדברי מומחים מגולדמן זאקס, Citadel ו-Yardeni Associates, הסיפור העצוב מלפני 25 שנה עשוי לחזור על עצמו בקרוב.

"בועת האינטרנט" בתחילת שנות ה-2000 הייתה תוצאה של צמיחה מהירה במחירי המניות של חברות האינטרנט, שפיגרה הרבה מאחורי הביצועים הפיננסיים בפועל של עסקים אלה. כתוצאה מכך, התפוצצה ה"בועה" ומחירי המניות קרסו, וגרמו נזק חמור למשקיעים.

חששות דומים מובעים כעת לגבי שוק המערכות הגנרטיביות. העלייה המהירה בערך של ענקיות טכנולוגיה הקשורות לבינה מלאכותית על רקע ביצועים פיננסיים צנועים יחסית עלולה להוביל לקריסה גדולה נוספת.

המומחה גארי סמית' והמחבר מתמקדים במדד ההכנסות כדי להוכיח שבועת ה-AI הנוכחית גדולה בהרבה מהפעם הקודמת. אז, המשתמשים היו מוכנים לשלם כ-1.5 טריליון דולר (במחירי 2024) עבור שירותי אינטרנט, מחשבים ומסחר אלקטרוני.

הדוחות הכספיים האחרונים של ענקיות כמו גוגל, מיקרוסופט, מטה, אפל ואמזון ממשיכים להתעלם מהכנסות מתוכנה ובמקום זאת להתמקד בצמיחת שירותי הענן. לפיכך, גוגל טוענת שבינה מלאכותית כותבת רבע מהתוכנה שלה, אבל מומחים בטוחים שהיא לרוב השלמה אוטומטית. למרות שרבים כבר הבינו שעידן הניסויים ב-AI הסתיים, ו"עכשיו הם צריכים להפגין החזרות".

דרון אצמוגלו מ-MIT אמר שסכומי כסף עצומים מושקעים על שיפור מכונות חכמות, בעוד ניל לורנס מאוניברסיטת קיימברידג' מתח ביקורת על הרטוריקה "המפוצצת" של פוליטיקאים בבריטניה ובעמק הסיליקון. גארי מרקוס מאוניברסיטת ניו יורק היה מבקר קבוע של מכונות חכמות במשך שנים רבות ופירט את דעותיו בספר שראה אור זה עתה "לאלף את עמק הסיליקון" .

עם זאת, יש מי שמאמין בתוקף בפריצות דרך עתידיות. אימוץ בינה מלאכותית בחברות עובר מפרויקטים פיילוטים לשימוש בייצור, מה שעשוי להגביר את הרווח התפעולי של S&P ב-200 נקודות בסיס בחמש השנים הקרובות, על פי סקר שנערך בקרב 130 אנליסטים של בנק אוף אמריקה. זה שווה ערך לחיסכון שנתי של 55 מיליארד דולר. האופטימיות ניזונה בחלקה מהתחזית של OpenAI להכנסות של 100 מיליארד דולר ב-2029.

תחזיות ורודות כאלה הן אחת הסיבות העיקריות לכך ששווי השוק של "שביעית המפוארת" (Nvidia, גוגל, מיקרוסופט, אפל, אמזון, טסלה ומטה) גדל בכמעט 10 טריליון דולר מאז ינואר 2023 ויכול להמשיך לצמוח. הרי משקיעים מוסדיים (למשל קרנות פנסיה) מקדישים תשומת לב רבה לדוחות אנליטיים.

פרסי נובל לפיזיקה וכימיה, הנחיתה המוצלחת של הרקטה הסופר-כבדה של SpaceX באמצעות "מקלות מתכת" והאירוע האחרון של אילון מאסק היוו השראה לציבור. למרות שוועדת נובל לא הזכירה את ChatGPT בהודעה לעיתונות שלה, עיתונאים רבים יצרו את הקשר. הוול סטריט ג'ורנל השתמש בהצלחת SpaceX כדי לבנות הייפ סביב AI במאמר שכותרתו "SpaceX and Our Continued Age of Discovery".

כאשר הוול סטריט ג'ורנל שאל 11 מומחים לתחזיותיהם לשנת 2030, תשעה היו אופטימיים ביותר. לדוגמה, אריק ברטנקס מגרטנר הציע שסוכני בינה מלאכותית "יגנו עלינו מפני קבלת מיילים, שיחות, SMS והודעות מיידיות שלא מאוד שימושיות עבורנו, וגם יגיבו להם אוטומטית".

עם זאת, מגמות לטווח קצר מאכזבות. בעיית ההזיות בפעולת מודלים גדולים של שפת בינה מלאכותית נדונה כבר שנים רבות. כתב העת היוקרתי Nature פרסם לאחרונה מאמר שקבע כי "מודלים של שפה גדולים יותר הופכים לפחות אמינים". מחברי מאמר אחר חולקים על הטענה כי יכולות החשיבה הפורמליות של מודלים של AI משתפרות. הם מסיקים ש-LLMs מודרניים אינם מסוגלים להנמקה לוגית אמיתית; במקום זאת, הם מנסים לשכפל את הדפוסים מנתוני האימון.

מאמר שלישי לאחרונה מכתב העת המכובד Nature מדגיש את הבעיה החמורה של "קריסת מודל". זה טמון בעובדה שככל שהנתונים האנושיים מוחלפים בטקסט שנוצר על ידי מחשב באינטרנט, מודלים של AI הופכים הומוגניים יותר ויותר. הנתונים הדרושים שמהם מערכות גנרטיביות יכולות ללמוד מתבטלים.

מחברי המאמר מסכמים כי "שימוש חסר הבחנה בתכנים שנוצרו על ידי מודל באימון מוביל לפגמים בלתי הפיכים בתוצאות, שבהם נעלמים אלמנטים חשובים ממערך הנתונים המקורי". במילים אחרות, האלגוריתמים מאבדים מגוון ויכולת לייצר תוכן מקורי, והופכים מוגבלים יותר ויותר.

נראה שהעולם הולך בדרך מאוד מעניינת, אבל בכלל לא חיובית, לגבי עתיד הבינה המלאכותית.


[newsletter_plugin_form]

אולי יעניין אותך

להשאיר תגובה

ברוכים הבאים לאתר חדשות, המוביל בתחום הסייבר ואבטחת המידע. כאן תמצאו עדכונים שוטפים, חוות דעת מומחים וכלים מעשיים להגנה על פרטיותכם בעולם הדיגיטלי, ובעיקר ברשת הבית. האתר מספק תוכן מבוקר למתחילים ולמתקדמים כאחד. הירשמו ,והישארו מעודכנים!

2024 SecurityNews.co.il ©️ כל הזכויות שמורות.

אתר זה משתמש בקובצי Cookie כדי לשפר את חווית הגלישה. אפשר לבטל את הסכמתך בכל עת. להסכים רוצה לדעת עוד

אנו רק רוצים לוודא שהינך מעל גיל 13. האתר לא מכיל תוכן הסתה, אלימות או פוליטיקה.
לצערינו אי אפשר לצפות בתוכן האתר מתחת לגיל 13.
אני מעל גיל 13 אני עדיין לא בגיל 13