מה הקטע, אינטל?

במהלך השנים, יצא לי, כיועץ עצמאי, להשתתף בפגישות בחברות שונות כמראיין באספקט היותר "גיקי" כשמראיינים נציג של חברה לגבי מוצר או לגבי מועמד למשרה טכנית חשובה. בדרך כלל הציפיה ממני במהלך הישיבה, היא להיכנס טיפה לעומק למושגים הטכניים או לשאול שאלה קצרה טכנית שתבדוק את הידע של הנציג לגבי המוצר או המועמד לגבי הידע שברשותו. הנציגים או המועמדים המועדפים עליי הם אלו שיודעים לספר מה הם עשו, באלו אתגרים הם עמדו, והכי חשוב – כמה שפחות ריכולים על המתחרים. יש כאלו, לפעמים, שמגיעים, רק כדי ללכלך על אחרים כמה הם גרועים וכמה הם עצמם הרבה יותר טובים (למרות שהם לא ממש מצליחים להוכיח בראיון במה הם יותר טובים)

בימים האחרונים נראה כי באינטל החליטו ללכת בדיוק בשיטה של הלכלוך.

תזכורת קצרה: בשנה שעברה הכריזה AMD על סידרת מעבדי Ryzen 4000 למחשבים ניידים בדרגות שונות. למעבדים הללו לא היה את כל ה"בלינג בלינג" שאינטל כה טורחת לציין (כמו AVX512) אבל מה שכן – מעבדים אלו נתנו ביצועים טובים, הן בחיבור לחשמל והן מהסוללה, כולל אורך חיי סוללה טובים, והסוקרים היללו את המעבדים וחלק גדול מהמחשבים הניידים הללו. הפתרון של אינטל באותו זמן למעבדים הללו – היה פתרון שקיבל ביצועים נמוכים יותר כמעט בכל מבחן סטנדרטי. נוסיף את ההתלהבות הן של היצרנים והן של הרוכשים, ונגלה כי AMD הצליחה לכבוש נתח שוק לא קטן משוק המחשבים הניידים תוך מספר חודשים, וזה אף הגיע למצב שיצרניות יצרו דגמים חדשים שכלל לא תוכננו מראש – כדי לעמוד בדרישות שהשוק פתאום הציב.

לפני מספר חודשים הציגה אינטל את מעבדי ה-Tiger Lake שלהם למחשבים נייידים (ליתר דיוק: הציגו רק חלק, את החלק השני של מעבדים עם 8 ליבות החברה לא הציגה עד היום, משום מה). מבחינה טכנית, המעבדים הללו הם מעבדים די טובים והיה צפוי כי אינטל תתרכז בהצגת יכולות ויתרונות מעבדים אלו בהשוואה למעבדים למחשבים ניידים מדור קודם של החברה … אבל זה לא קרה. במקום זה, במשך שעה וחצי הרצו הנציגים על החסרונות של מעבדי Ryzen במקום להשקיע את הזמן בהצגת היתרונות של מעבדי החברה. בנוסף, אינטל הצהירו כי מבחני ביצועים סטנדרטיים זה דבר פאסה ואילו מבחנים "אמיתיים" – הם הם הדבר… כמו להמיר קובץ PPT ל-PDF. אתם עושים את זה 20 פעם ביום, לא??

התקשורת עשתה מה שהיא אוהבת לעשות במקרים כאלו: רובם פשוט התעלמו מההרצאה והלכו לבחון ולפרסם תוצאות סקירות על מעבדים אלו, ובחלק מהמקרים הפרסומים היו מוגבלים מראש, כאשר אינטל הכתיבה לסוקרים כי יש לבחון את המחשבים הניידים עם המעבדים החדשים רק כשהם מחוברים לחשמל, ואין לציין כי המעבדים החדשים צורכים בממוצע פי 2 חשמל בהשוואה למעבדי ה-Ryzen 4000U של AMD. גם איסורים אלו במהלך הזמן נעקפו והראו שבסופו של דבר, וגם כאן, ברוב המקרים הפתרונות של AMD – עדיין מובילים, במיוחד שאתה צריך עבודה של ליבות מעבד.

חלפו מאז מספר חודשים, כולם שכחו מכך, עד … הימים האחרונים, בהם אינטל הציגה תיאוריית קונספירציה חדשה: המעבדים של AMD במחשבים הניידים "מרמים" את המשתמש, ובשימוש סוללה ללא הזנת חשמל מהקיר, המעבדים מתחילים לתת ביצועים גבוהים כשהם נדרשים – רק לאחר 10 שניות! והנה הוכחה לדוגמא:

מה אנחנו רואים בגרף לעיל? (אפשר ללחוץ עליו להגדלה) – הגרף מראה כי מעבדי ה-Ryzen 4000 למחשבים ניידים, משהים את עליית המהירות ב-7-10 שניות כשהם אינם מחוברים לחשמל (הגרפים הצהובים) לפני שהם מעלים את המהירות בפועל וכתוצאה מכך, הביצועים הגבוהים "מעוכבים" ב-7-10 שניות כשהמשתמש לא מחובר לחשמל!

אכן קונספירציה! קראו לרודי ג'וליאני ונארגן תביעה יצוגית נגד AMD!

בפועל, אם המהנדסים של אינטל היו טורחים לשוחח עם המהנדסים של יצרני המחשבים הניידים, הם היו מגלים כי AMD מציידת את היצרן עם רשימת מסמכים גדולה, כולל לא מעט מסמכים והמלצות לגבי חסכרון בחשמל ופרופילים ש-AMD בנו במערכת ושהיצרן יכול להפעיל או לכבות או לכתוב פרופיל משלו. עניין ה-7-10 שניות ידוע לכל היצרנים והם דווקא מאוד אוהבים זאת ומפעילים כברירת מחדל את הפרופיל הזה, ואפשר להבין אותם: אם המשתמש נמצא בחוץ ואין לו שום נקודת חשמל באזור, האם הוא יסכים לביצועים מופחתים תמורת זמן סוללה יותר ארוך? אני לא מכיר אחד שיאמר "לא", במיוחד שאם הוא מתעקש על הביצועים היותר גבוהים – הוא יקבל אותם גם כך לאחר מספר שניות. הפתרון המתחרה של אינטל, אגב, הוא "להזניק" את ביצועי המעבד בצורה מיידית, מה שגם מביא לאחר מספר שניות את המעבד לנקודת חום של 97-99 מעלות, מה שמעביר את המעבד למצב Throttle ומפעיל מאווררים ברעש של מנוע סילון קטנטן למשך כמה דקות עם ביצועים יותר נמוכים עד שהמעבד יתקרר. תשאלו את משתמשי אפל על כך.

יצא לי לצפות במצגת של אינטל, ויש לי לא מעט השגות לגבי ההתעלמות ממתודות בדיקות סטנדרטיות לטובת בדיקות נישתיות (במקרה הטוב), כמות המחשבים הניידים שנבדקה, עומק הבדיקות ועוד, אך אינני חושב שכדאי להיכנס לכך. אינטל היא יצרנית מעבדים מעולה שפספסה פה ושם ואני בטוח שהיא תוציא מעבדים חזקים בהמשך (כבר במרץ הקרוב לדסקטופ ותכריז על מעבדים חדשים למחשבים ניידים בתערוכת CES הקרובה), אך אינני חושב שלכלוך על המתחרה הקטן הוא צעד נבון.

לסיכום: בין אם מדובר באינטל הענקית ובין אם מדובר על נציג של חברה – לכלוך על אחרים לא מקנה לך נקודות זכות. דבר על המוצר, דבר על יתרונותיו, תשווה באופן הוגן ומובן לאחרים והשתמש בסטנדרטים ידועים. זו הדרך להגדיל את הסיכוי לזכות במשרה או במכרז או בכל משהו שניתן לזכות בו.

תכירו – Raspberry Pi 400

אחד הדברים המבורכים ש-Raspberry Pi Foundation עשה לשוק ה-SBC (כלומר Single Board computer) – הוא השינוי המהותי בכל הקשור למחשבים זולים. ישנם גם השינויים האחרים כמו שינוי מקצה לקצה של שוק המערכות המשובצות, אבל השינוי שקשור ליצור ומכירת SBC לקהל, גם לקהל הלא מנוסה – הוא שינוי ענק שרק עזר לקהל רב שלא יכל לאפשר לעצמו מחשבים במאות ואלפי דולרים.

המוצר החדש שה-Foundation שיחרר רשמית לשוק היום נראה במבט ראשון כמקלדת תמימה, וזה קצת הפתיע בוחני חומרה מסויימת במבט הראשון שהם הסתכלו. ל-Foundation כבר יש מקלדת שהם מוכרים בזול ($20), אבל מבט מאחורי המקלדת הראה משהו די מפתיע: את כל היציאות של ה-Raspberry Pi. לפנינו, אם כן, Raspberry Pi בתוך מקלדת.

למי שתוהה או אינו זוכר מאיפה מוכר ה-Form Factor הנ"ל: עיצוב ה-Pi החדש הוא בעצם הומאז' לאמיגה 500 (ולפיכך השם – Pi 400). באמיגה הנ"ל, באטארי ST ובעוד מספר מחשבים באותה תקופה, היה נהוג להכניס את הכל לתוך קופסא שהמקלדת בה היא הדומיננטית, החיבורים מאחור וכניסת הדיסקטים (זוכרים אותם?) מצד ימין. בשנת 2020 אין לנו דיסקטים אבל ב-Pi 400 יש בהחלט כניסה לכרטיסי מיקרו SD, חיבורי USB, חיבור רשת קווי וכאקסטרא – חיבורי ה-GPIO. מחפשים את החיבורים האלחוטיים? הם כאן: 5 Bluetooth ו-WiFi (כולל תמיכה ב-AC). פרטים נוספים לגבי המפרט:

  • מהירות המעבד (עדיין אותו מעבד שקיים ב-Pi 4 אך עם Stepping שונה) עלתה ב-300 מגהרץ
  • זכרון: 4GB LPDDR4 SDRAM
  • חיבורים למסכים: 2 כניסות מיקרו HDMI
  • חיבורי USB: חיבור USB 2.0 (יחיד) וחיבורי USB 3.0 (זוג)
  • אחסון: המחשב מגיע עם כרטיס מיקרו SD בגודל 16 ג'יגהבייט, אך הוא תומך ב-Boot מציוד בחיבור USB או PXE.
  • קירור: קירור המעבד ושאר החלקים הוא פאסיבי ומתבצע בעזרת heat sink פאסיבי.
  • משקל: 384 גרם.

המחשב הזה בתצורתו הנוכחית, יכול, לעניות דעתי, לתת מענה טוב לילדים או משתמשים שכל צרכיהם הוא גלישה באינטרנט, ZOOM, או דברים כאלו.

מבחינת מחיר – כ"מקלדת" הוא עולה כ-70$. כ-KIT הוא נמכר ב-100$ וכולל ספק כח, כרטיס מיקרו SD, כבל HDMI למיקרו HDMI, וחוברת נחמדה שיכולה לסייע לילדים ולצעירים להפעיל את ה-Pi בפעם הראשונה ולהמשיך להשתמש בו, גם אם אין לצעיר נסיון רב במחשבים. נכון לשעת כתיבת שורות אלו, מי שמייבא את ה-PI לארץ טוען כי ה-Pi 400 לא יגיע לכאן לפחות בחודשיים הקרובים, וכמו כן הוא אינו מתכוון לצרוב עברית על המקלדת ברגע שהמכשיר ימכר כאן (שזה לדעתי פספוס ענק, אבל נו.. בחירה שלו).

מבחינת ביצועים – ב-Phoronix הריצו עליו שורת ניסויים ולפי התוצאות נראה שיש שיפור מסוים, אך לא שיפור כה משמעותי כמו המעבר מ-Pi 3 ל-Pi 4.

לסיכום: שווה לרכוש? בהחלט (כלומר .. אם תצליחו למצוא מהיכן. משום מה בארה"ב זה כלל לא קיים ובשאר המדינות שהאתר מקשר, אפשר אולי למצוא לרכישה, אבל אין משלוח לישראל). זה מתאים לילדים, מתאים כמחשב שני/שלישי ל"משחקים" בלינוקס כדי להכיר את מערכת ההפעלה וגם כדי לבנות פרויקטים קטנטנים לאלו שמתחילים ללמוד אלקטרוניקה.

תכירו: משפחת ה-Ryzen 5000

חברת AMD הכריזה לפני כשבועיים על מעבדי ה-Ryzen דור רביעי לדסקטופ (מבחינת מספרי הדגמים, הם החליטו לקפוץ מ-3000 ל-5000 לאחר שהם הצליחו ליצור סלט שלם בדגמי ה-4000). בפוסט זה אתייחס הן לדגמי הדסקטופ והן למעבדי ה-EPYC לשרתים שיצאו כבר בקרוב.

מעבדי Desktop לשרתים

מבחינת מעבדי הדסקטופ, ב-AMD ממשיכים להוציא את אותם מספרי דגמים שהוציאו בגירסה הקודמת, בקצה הגבוה נמצא 5950X עם 16 ליבות, 5900X עם 12 ליבות, 5800X עם 8 ליבות ו-5600X עם 6 ליבות, בדיוק כמו שהיה עם ה-3950X, 3900X, 3800X, 3600X, רק שהפעם אין בשלב זה דגמים ללא X כמו שהיו בדגמי ה-3000 (אלו יצאו בשנה הבאה). המחירים – עלו במעט, בממוצע כ-50$ בהשוואה למעבדים מסידרה 3000.

מבחינת ביצועים (שזה כמובן הדבר הכי חשוב למשתמשים) – AMD הציגה עליה משמעותית בביצועים של עד 19% – במיוחד בעבודות Single Threaded, ולראשונה במבחנים סינטתיים – AMD עוקפת את כל המעבדים שאינטל מוכרת בגיזרת הדסקטופ (שוב, בעבודות Single Threaded, ב-Multi Threaded המעבדים של AMD עוקפים ממזמן את המעבדים של אינטל). במבחן כמו Cinebench, מעבד כמו ה-5950X מגיע ל-640 ב-Single Threaded ומעבד 5900X מציג באותו מבחן את המספר 631. לשם השוואה, מעבד ה-10900K מגיע ל-539 באותו מבחן ומעבד כמו ה-Tiger Lake החדש לדסקטופ (דגם: Core i7-1185G7) מגיע ל-598 (אך זהו אינו מעבד לדסקטופ, זהו מעבד למחשב נייד).

ישנם שיפורים רבים בתוך המעבדים החדשים, מבנה Cache חדש שנותן ביצועים גבוהים בצורה משמעותית, ושינויים רבים נוספים ש-AMD תפרט עליהם יותר בהרחבה כבר בשבועות הקרובים.

ישנם לא מעט אנשים שכבר יש ברשותם מעבדי Ryzen והם מעוניינים לשדרג – הנה מספר נקודות לגבי הנושא:

  • אם יש לכם לוח אם מבוסס Chipset כמו X570 או B550 – תוכלו כבר בחודש הבא לרכוש את המעבד, לשדרג את ה-BIOS, להחליף את המעבד ולהמשיך לעבוד כרגיל.
  • אם יש לכם לוח אם מבוסס Chipset כמו X470 או B450 – לרוב הדגמים יצא שדרוג BIOS במהלך חודש ינואר אשר יוסיף תאימות למעבדים החדשים (אך יסיר תאימות ממעבדים ישנים כמו Ryzen מסידרה 1000 ו-2000, פשוט אין מקום בשבב הפלאש לכל העדכונים).
  • רשמית – המעבדים יצאו לשוק ב-5/11. הסיכוי שלכם לרכוש ולקבל מעבד כזה בארץ בתאריך הנ"ל – די טוב (נודע לי לאחרונה כי כבר יש מלאי בארץ, אך המכירה אסורה עד ה-5/11).
  • לאלו שאין ברשותם מעבד Ryzen וחושבים לרכוש (במסגרת בניה עצמית של מחשב) לוח אם ואז את המעבד, אני ממליץ להמתין: בהשקה הרשמית יכריזו יצרני לוח האם על לוחות אם חדשים עם תכנונים משופרים.

חשוב לזכור: כמו שזה נראה כרגע, כנראה שסידרת ה-Ryzen מסידרה 5000 הם "תחנה אחרונה", וכשיצאו מעבדי ה-Ryzen 6000 יהיה צורך בלוח אם חדש וכנראה זכרונות חדשים (DDR5), ולכן אם חושבים להשקיע סכום מהותי ברכישת לוח אם חדש ובמעבד, כדאי לקחת בחשבון שכנראה לא ניתן יהיה לשדרג את המערכת למעבדי Ryzen עתידיים.

מעבדי EPYC לשרתים

באופן רשמי, ב-AMD עדיין לא מדברים/מספרים על מעבדי ה-EPYC מסידרה 7003 (שם קוד: Milan), והדברים יפורסמו באופן רשמי במהלך השבועות הקרובים (אני מאמין שבמהלך נובמבר), אבל עד אז – הנה כמה נקודות מעניינות:

  • שיפור ביצועים משמעותי בהשוואה ל-EPYC דור קודם (7002): כמו ב-Ryzen, גם כאן יש תכנון חדש לזכרון המטמון ברמות 1 ו-2, כך שבפועל ה-Latency נחתך בצורה משמעותית, מה שמתורגם לביצועים גבוהים, כאשר ברוב המקרים מדובר על שיפור דו ספרתי.
  • מבחינת וירטואליזציה – מעבד EPYC דור 7002 (הדור הנוכחי) נתנו מספר יתרונות מבחינת אבטחת וירטואליזציה בהשוואה למה שאינטל נותנים (אינטל תתן פתרון מועתק במשפחת מעבדי ה-Xeon הבאים בשנה הבאה, ע.ע. TME) ולאחרונה התבשרנו כי vSpehre 7 עדכון 1 יתן תמיכה בפונקציות החדשות להצפנת מכונות וירטואליות, דבר שיתקבל בהחלט בברכה במקומות שאבטחה היא במקום הראשון. במעבדי EPYC דור 7003 אנחנו צפויים לקבל עוד מספר שיפורים חדשים באבטחת וירטואליזציה (אם כי מבחינת תמיכה, זה אולי יהיה ב-vSphere 7U2 או בגירסה 8, אך אם משתמשים בוירטואליזציה מבוססת KVM – התמיכה תגיע בחודשים הקרובים)
  • אחת הנקודות שעולות שוב ושוב בפורומים שונים של משתמשי EPYC היא תאימות לאפליקציות שאינטל מבצעת בהם אופטימיזציה, כמו הוספת תמיכה ב-AVX 512. ובכן, בדגמי ה-EPYC החדשים יש תמיכה ל-AVX 512 ולעוד מספר טכנולוגיות ידועות.
  • תאימות לאחור – גם הפעם, יהיה אפשר להשתמש במעבד EPYC מסידרה 7003 על שרתים ישנים יותר (3 דורות אחורה). חשוב לציין כי את התמיכה לכך יש צורך לקבל מיצרן השרתים (בד"כ זה יהיה במסגרת KIT הכולל מעבד חדש או במסגרת עדכונים שהיצרן מוציא לשרתים). כל היצרנים יתמכו בשדרוג ממעבדי EPYC דור 7002 לדור 7003, אולם רק חלק מהם יתנו תמיכה לשדרוג מ-EPYC דור 7001.
  • שיפור ביצועים משמעותי בכל הקשור ללינוקס: ב-AMD הוסיפו פקודות חדשות, והוסיפו שיפורים למהדר כמו GCC (זה נקרא Znver3), כך שאם רוצים שיפורים מעבר לשיפורים שמקבלים כברירת מחדל, אפשר לקמפל עם הפרמטרים החדשים ולקבל ביצועים עוד יותר גבוהים

חשוב לציין: גם כאן, כמו עם מעבדי Ryzen, המעבדים שיצאו יהיו כנראה בחזקת "תחנה אחרונה". ב-AMD עובדים במרץ על EPYC דור 7004 (שם קוד: Genoa) שיתן תמיכה ב-PCIe 5, זכרון DDR5, תמיכה ב-CXL, וטכנולוגיות רבות אחרות, כולל שינוי כל ה"שיחה" בין ה-CPU לכרטיסי GPU (בהצלחה ל-NVIDIA עם NVLINK), ומעבדים אלו לא יהיו תואמים אחורה.

לסיכום: AMD פתחה את הרבעון האחרון של 2020 בהכרזה על מעבדי Ryzen, בהמשך החודש על כרטיסי ה-GPU לדסקטופ, ולאחר מכן יגיעו ההכרזות על מעבדי EPYC לשרתים, כרטיסי GPU לצרכי ML/DL. התחרות בתחומי ה-GPU – בשיאה (NVIDIA כבר הכריזה על הכרטיסים שלה, AMD יכריזו בחודש הקרוב, ואינטל במחצית הראשונה של השנה הבאה) והתחרות בתחום המעבדים תתחיל החודש הבא ואילו אינטל תתן מענה הן בתחילת שנה הבאה (ICE Lake, מעבדים שאני לא ממליץ לרכוש, הואיל ואלו מעבדים שיהיו רלוונטיים אולי במשך חצי שנה) והן במחצית השניה של 2021 שבה היא תציג את מעבדי ה-Sapphire Rapids שיהיו מבוססים ארכיטקטורה חדשה (ביי ביי, Skylake), ויהיו שונים מהותית ממה שאינטל מוכרת כיום, ועם שיפורים מדהימים ורעיונות.. יצירתיים.

תכירו: ESXi למעבדי ARM

בכל מה שקשור לוירטואליזציה, עד היום שלטו ללא עוררין מעבדי ה-X86 ובסקטור ה-Enterprise שולטת ללא עוררין חברת VMware, עם פלטפורמת ה-vSphere. אינטל ו-AMD משקיעות מאמצים רבים בפיתוח ושיפור התמיכה בוירטואליזציה במעבדים (ה-"שוס" האחרון: הצפנת מכונות וירטואליות, דבר שקיים זמן רב במעבדי EPYC ויהיה זמין במעבדים בדור הבא בשנה הבאה במעבדים של אינטל).

לאחרונה, יותר ויותר חברות נחשפות לוירטואליזציה בעננים ציבוריים על מעבדים שאינם X86 אלא מעבדי ARM. הסיבה לכך כמובן קשורה לכסף: Instance מבוסס מעבדי ARM זול בהרבה מכל Instance שמבוסס על X86 ואפשר להריץ על אותן מכונות את כל מה שלא דורש CPU חזק, כמו שרתי Web, קונטיינרים פשוטים ועוד, ועל הדרך להוזיל את המחיר בצורה משמעותית.

בעולם השרתים ב-On Prem, כפי שציינתי, מעבדי X86 שולטים, ובשוליים אפשר למצוא גם מעבדי Power של IBM (שתומכים בוירטואליזציה הרבה לפני שאינטל בכלל חשבו על VT-X לדוגמא) ולאחרונה יש יותר ויותר התעניינות גם במעבדי ARM מבחינת הרצת מכונות וירטואליות, קונטיינרים וכו', והפעם מדובר לא רק בגלל המחיר – מספר מעבדים מבוססי ARM לשרתים שיצאו בשנה הבאה הבאה ידעו לתת פייט רציני מבחינת ביצועים גם מול מעבדי Xeon המובילים של אינטל.

ב-VMware היו מודעים לנושא ובשנים האחרונות ישנו צוות שכל מטרתו היה לגייר את קוד ה-ESXi וכל השכבות והחלקים של הפלטפורמה – למעבדי ARM השונים הפופולריים בשוק, וכעת סוף סוף החברה חושפת את המוצר לציבור ומאפשרת הורדה למספר מערכות עם מעבדי ARM שונים:

  • מערכת Raspberry Pi 4 (תצטרכו 8 ג'יגה זכרון, על גירסת ה-4 ג'יגהבייט בקושי תצליח להריץ משהו ותשכחו מ-Raspberry Pi 3 וגרסאות קודמות)
  • מספר מערכות הכוללות מעבדים Ampere eMAG (אין קשר ל-NVidia)
  • Solidrun Honeycomb LX2
  • לוחות המבוססים על LS1046A של NXP (מי שחושב לרכוש ולא מכיר את הלוחות האלו – מומלץ לפני כן לפנות ליבואן של NXP, המערכות שלהם די מורכבות ולא מומלץ לרכוש ישירות מהאתר)

לאלו שכבר רוצים להוריד את ה-ISO – הוא זמין להורדה כאן, רק לפני שרצים להוריד ולהשתמש, אתם מוזמנים לקרוא את ההערות הבאות:

  • הגירסה שזמינה היא נסיונית ומוגבלת בזמן. הגירסה תפעל ל-180 יום ולאחר מכן תצטרכו להקים אותה מחדש.
  • יש קובץ ISO להורדה, אבל בניגוד לגירסת ה-X86, ההתקנה עצמה יותר מורכבת ומי שלא מכיר לינוקס יצטרך להיאזר בסבלנות ולעקוב אחר ההוראות (המעולות) שהם סיפקו. ככלל, ידע בלינוקס מאוד יעזור עם הגירסה הזו (אגב, בגירסה הזו VMWare עושים "אחורה פנה" וחוזרים להיות מבוססי לינוקס)
  • מכיוון שיש עשרות (אם לא מאות) לוחות/SBC מבוססי ARM, רבים יתהו האם ESXi גירסת ARM תרוץ על לוחות אלו. התשובה לכך קשורה בתשובה לגבי הלוח/SBC אם הוא תואם SystemReady SR ופלטפורמת ה-ARM היא V8 ומעלה. אם כן, יש סיכוי שה-ESXi ירוץ. מעבדי ALTRA או Jetson של NVIDIA – לא נתמכים כרגע.
  • מבחינת מערכות הפעלה שניתן להריץ כ-Guest: כרגע אפשר להריץ אובונטו 20, פדורה ועוד כמה הפצות לינוקס. כרגע גרסאות Windows ל-ARM אינן נתמכות.
  • מבחינת Storage – אפשר להשתמש ב-SSD מקומי או לחבר iSCSI. אין תמיכה כרגע ב-NFS.
  • אם אתם מתקינים הפצה בלתי נתמכת וצריך לבחור מהו כרטיס הרשת, זה vmnic128 (לקח לי קצת זמן למצוא את זה)
  • אפשר לנהל את ה-ESXi מ-vCenter כמו כל שרת רגיל – כל עוד אתם משתמשים ב-VCSA 7.0D ומעלה.
  • אם אתם רוצים להריץ כמה וכמה קונטיינרים ומכונות VM – אני ממליץ לרכוש לוח אם או תחנה מבוססת eMAG של Ampere + מעבד, זכרונות וכרטיס רשת שמופיע בתיעוד (לא מלאנוקס וכו')
  • אל תנסו להתקין VMWare Tools דרך ה-vSphere. השתמשו ב-Open VM Tools (קיים לכל ההפצות)
  • יש יכולות של Live Migration, רק שכדאי לשים לב לפני כן להגדרות כרטיס רשת וכו', אחרת אתם עלולים לתקוע את המחשב.
  • אל תחברו ותנתקו ציוד USB מהמחשב, זה יכול לגרום לקריסה.
  • אם אתם רוצים להקים Cluster של ESXi מבוסס Raspberry Pi, אז מומלץ להשתמש ב-HAT ו-PoE במקום ערימת ספקי כח. במסמך של VMWare ל-Pi יש המלצות ספציפיות.
  • אל תנסו להקים VDI על זה 🙂

לסיכום: ESXi על מעבדי ARM יכול להיות פתרון מעולה אם רוצים לנסות מכונות VM שלא מצריכות כח מחשוב מאסיבי, וזה יכול להיות גם פתרון מעולה להרצת קונטיינרים לטסטים/Dev וכו', רק חשוב לזכור שזוהי גירסה ציבורית ראשונה ונסיונית, וחשוב לעקוב אחר ההוראות הניתנות בתיעוד ה-PDF ש-VMware פרסמו.

השינוי המהותי ש-VMware מתכננת לבצע

כנס VMWorld נערך באופן וירטואלי השנה ב-29-30/9 וכלל מגוון הרצאות, שרובם נעו על מוצרים ונושאים שב-VMWare כבר דיברו עליהם בעבר. אחד הנושאים שעבר "הכרזה מחדש" (3 פעמים! פעם אחת בשנה שעברה, פעם שניה בכנס VMworld ופעם שלישית רק לפני יומיים בכנס GTC) הוא נושא ה"DPU" (כלומר Data Processor Unit) של חברת מלאנוקס, עם מעבדי ה-Bluefield-2. חשבתי לכתוב פוסט על ה-DPU, אך מכיוון שיש עוד מספר שחקנים שהולכים להיכנס בדיוק לתחום זה עם שמות משלהם, החלטתי לכתוב פוסט יותר כללי בנושא.

תכירו – פרויקט Monterey

לפני שניכנס לפרטי הפרויקט, נסתכל על המצב הנוכחי, עוד ברמת ה-Hypervisor, ה-ESXi. כיום, ה-ESXi בעצם מריץ את כל השרותים כ-Hypervisor על מעבדי ה-X86 (ה-Xeon או EPYC) – בין אם מדובר בשרותי רשת, שרותי אחסון, אבטחה, Host Management ועוד. כל זה טוב ויפה, אך זה גוזל לא מעט משאבים מהשרת, וזה גם לא נותן מענה מלא לצרכים של הלקוחות כיום, שרוצים מהירות תקשורת יותר גבוהה, שימוש בכרטיסי FPGA וכרטיסים אחרים, חלוקה יותר טובה של נתיבי PCIe (העבודה שרוב יצרני השרתים, למעט חברת Supermicro ו-TYAN עושים בשרתים שלהם בכל הקשור ל-IOMMU, שלא לדבר על SR-IOV ומיפוי הנתיבים – היא פשוט בושה!), ועוד.

ישנה קטגוריה שלמה של כרטיסים חכמים שיכולים לבצע את כל התהליכים הללו, ובצורה הרבה יותר מאובטחת, יותר מהירה ויותר אמינה. הקטגוריה הזו נקראת SmartNIC. בדרך כלל מדובר בכרטיס רשת שכולל בתוכו מעבד ARM, אחסון Flash קטן, זכרון, ויכולות רציניות לטפל בתעבורה במהירות של 100-200 ג'יגהביט, כולל אבטחה בכל רמות התקשורת, הצפנה, שרותי אחסון NVME "על סיב" ועוד. ב-VMware עסקו בשנתיים האחרונות במיגרציה של קוד ה-ESXi ל-ARM על מנת לאפשר ל-ESXi בעצם לרוץ מהכרטיס ואותו מעבד ARM יתן את כל השרותים שה-ESXi כיום נותן – רק מבלי להשתמש במעבדי ה-X86 בשרת. מעבדי ה-X86 הנ"ל יוכלו להריץ מכונות וירטואליות, קונטיינרים, ומעתה – גם Bare Metal. תוכלו להריץ בעצם כל מערכת הפעלה על "הברזל", כאשר ה-OS יקבל את שרותי התקשורת, אחסון, ניהול וכו'  דרך ה-SmartNIC באופן שקוף. בנוסף, בעזרת ה-SmartNIC ופרויקט אחר (פרויקט Bitfusion) – נוכל גם לקבל שרותים מציוד שאינו נמצא על השרת עצמו, כמו שרותי GPU, שרותי אחסון NVME Over Fiber ועוד.

יוצא מכך, שעם פרויקט זה, לא רק שנקבל יותר מקום פנוי בשרתים, נוכל לקבל גם אפשרויות התקנה נוספות, וניהול אחיד של כל השרתים, אפשרויות Provisioning יותר טובות ועוד.

אם העניין הזה נשמע לכם מוכר ולא מעולם VMware – אתם לא טועים. כך בדיוק עובדת אמזון עם כרטיס ה-Nitro שלהם ומאפשרת ללקוחות לשכור מיידית שרתים פיזיים, מבלי שהשרתים יעברו תהליך Provision כלשהו. הכל רץ מכרטיס עם מעבד ARM ומערכת לינוקס שרצה על הכרטיס ומבצעת את כל הפעולות, ונותנת את כל השרותים הנחוצים בצורה שקופה לשרת. גם ספקי ענן ציבורי אחרים עובדים בשיטות דומות.

פרויקט Monterey נמצא כרגע במצב Preview, אך מי שחושב כבר לקפוץ ולהתחיל להשתמש בפירות של הפרויקט, כדאי שיעצור לרגע. כרטיסי ה-SmartNIC מתחברים בחיבור של 100-200 ג'יגהביט ומעלה, כך שסביר להניח שתצטרכו מתגים אחרים יותר מהירים ויותר יקרים. מבחינת סוגי כרטיסי SmartNIC, אין כרגע הרבה הצעות (יש את Bluefield-2 של חברת מלאנוקס, אינטל, ברודקום ועוד מספר חברות יצאו עם כרטיסים כאלו בשנה הבאה) וסביר להניח שתצטרכו גם בדרך להחליף שרתים, הואיל ויש צורך בשינויים על לוח האם, כולל שינויים מהותיים לקוד ה-UEFI שבשרתים.

לסיכום: זהו עוד מקרה שטכנולוגיה שמתחילה להיווצר ולהיות משומשת אצל ספקי ענן ציבורי (hyperscalers) ומגיעה לאט לאט ל-Enterprise. הפרויקט עצמו, לכשיפעל ויוכרז כ"יציב", וכל הציוד יהיה זמין – יתן פונקציונאליות חדשה וביצועים טובים יותר, אך בשלב זה הפרויקט אינו יותר מאשר "מעניין".

האם ניתן להגן על מחשב נגד גניבות תוכנה?

(הערה: את הפוסט הזה פרסמתי לפני יותר מ-3 שנים בבלוג אחר שכבר אינו קיים ואני מפרסם אותו מחדש עם עדכונים – לבקשת אנשים שפנו בנושא).

לא מעט חברות תוכנה יוצרות קשר בתערוכות, כנסים ודרכי שיווק אחרים כדי למכור את מרכולתן מעבר לים. בחלק מהמקרים התוכנה תינתן להורדה בחינם/כ-DEMO/לאחר תשלום בצורה מקוונת, ובחלק מהמקרים התוכנה תישלח ללקוח באמצעים קונבנציונליים (כן, יש עדיין מקרים כאלו).

אחד החששות הכי גדולים של אותן חברות – הוא שהתוכנה תיגנב, תועתק ו/או תופץ ברבים באמצעים פיראטיים ובמקרים מסויימים – חלקים ממנו יופיעו בתוכנות אחרות מתחרות (אחרי הכל, לא ממש מסובך להעתיק קובץ so או DLL – אלו קבצים של ספריות משותפות).

בעשור האחרון יצא לי לקבל לא מעט פניות שונות שאפשר לסכמן כך: לקוח פוטנציאלי מחו"ל (בד"כ זה סין) יוצר קשר עם חברת התוכנה ומעוניין לרכוש את התוכנה (בד"כ זו תוכנה שלא זמינה Online להורדה ישירה, לעיתים מדובר בתוכנות משולבות חומרה). המחיר זה לא בעיה, והבעיה היחידה היא שהלקוח הפוטנציאלי רוצה לנסות את המוצר עם תוכן משלו, והוא לא מוכן לשלוח את התוכן שלו, ולפיכך מתבקשת החברה הנכבדה לשלוח מחשב עם התוכנה על מנת שהלקוח הפוטנציאלי ינסה ולאחר מכן הם יעברו לשיחות על מחירים, תשלום וכו'.

כאן בדרך כלל כותב שורות אלו מקבל פניות (היו לא מעט כאלו) מהחברה ובה בקשה להצעת מחיר להקשחת מחשב שישלח ללקוח, החל מרמת ה-BIOS, המשך ב-OS ובכל מה שצריך, הכל על מנת שהלקוח הפוטנציאלי לא יפרוץ למכונה ויגנוב את התוכנה..

מערכות הפעלה שונות ניתנות להגנה ברמות שונות. לינוקס ניתן להקשיח בצורה הרבה יותר רצינית מאשר כל גירסת Windows. ניתן להצפין את הדיסק, ניתן לנעול BIOS/UEFI, ניתן גם לבטל אפשרות הפעלת כניסות USB, רשת וכו', אולם מהרגע שהמכונה מגיעה ללקוח הפוטנציאלי, הסיכוי שההגנות הללו ימנעו ממנו להיכנס/להעתיק – שואפים לאפס. אפשר להשתמש בטריקים רבים, אבל המקסימום שהם יגרמו, זה עיכוב בפריצה. (אגב, אני מכיר לא מעט אנשים שבטוחים שתוכנות כמו BitLocker מצפינות דיסקים בצורה יוצאת מן הכלל ולא ניתן בשום מצב לחלץ את המידע. אני ממליץ להם לקרוא את הפוסט הזה).

אז מה ניתן לעשות? לשכנע את הלקוח לנסות משהו אחר. אחת ההצעות: מכונה שתהיה זמינה Online.

מכונות וירטואליות אשר זמינות אונליין – קלות יותר להגנה והרבה יותר קשות לפריצה מאשר ברזל שמגיע ללקוח ב-Fedex. אפשר להתקין מספר תוכנות שעוקבות אחר ההתנהגות של המשתמש ושתדענה לחסום נסיונות שונים של "התחכמות". כמובן שאין 100% הגנה, אך ניתן לנעול ולסגור דברים רבים, במיוחד בלינוקס.

ב-Windows לעומת זאת, אם רוצים להקשיח ברצינות מכונה כזו, יהיה צורך בלהכין אותה מחדש, בלי WDS ולהשתמש בגירסת ה-IoT. בגירסה זו ההתקנה היא הרבה יותר פרטנית ויש צורך לבחור חלקים שונים מתוך מאות חלקים (בניגוד למה שמותקן ב-WDS) ובכך להקטין באופן משמעותי את אפשרויות הפריצה למכונה, ועל זה ניתן להתקין תוכנות צד ג' שחוסמות כניסות USB, חוסמות את תפריט ה"התחל", חוסמות תעבורת רשת, כתיבות לתיקיות לא מאושרות וכו' וכו'.

חוץ מהפתרונות הנ"ל, ישנם עוד פתרונות אחרים שתלויים כמובן בסוג האפליקציה ומה רוצים להריץ, החל מקונטיינרים, מכונות וירטואליות עם פתרונות הצפנה של ה-VM מבוססי מעבדים כמו Ryzen או EPYC, שימוש ב"שוק" של ספקי הענן ועוד ועוד, אך גם חשוב לזכור: אלו פתרונות שיותר קשים לפריצה, אך הם אינם בלתי פריצים לאלו המומחים בנושאים אלו.

אסכם כך את הדברים: אין הגנה של 100% ואם מחשב יגיע לחברה שכל יעודה הוא לפרוץ ולהעתיק חומר – כל מכונה שתגיע לשם תיפרץ. יכול להיות שיקח יום ויכול להיות שיקח שבוע, אבל הם יצליחו בסופו של דבר ולכן לפעמים אולי יהיה כדאי לשכנע את הלקוח לחשוב על פתרונות אחרים שאינם מצריכים משלוח מכונה אליו.

עריכת תכני מולטימדיה – תחנות עבודה מול עבודה מרחוק

לא מעט אולפנים רוכשים תחנות עבודה ותחנות דסקטופ על מנת ליצור ולערך תכנים כמו וידאו, אודיו, אנימציה, תלת-מימד, CAD וכו'. בשבילם קניה כזו שווה הואיל ורכישה כזו מכסה בעצם את הכל ובנוסף מקבלים תמיכה מיצרן השרתים, ויצרן התוכנות נותן תמיכה לתחנות כאלו.

לשיטה כזו יש כמובן יתרונות כמו "שקט" ללקוח הרוכש, אולם יש לה גם בעיות:

  • חוק מרפי אומר שאם ידפק הדיסק הקשיח של תחנת העבודה, שחזור דרך ה-Image לעולם לא יספיק ותמיד יאבדו קבצים חשובים ספציפית לאותו עורך או קבצים חשובים אחרים שנשמרו בתחנה אך מעולם לא גובו בגיבוי המרכזי.
  • Overpowered או Underpowered – בלא מעט מקרים שיצא לי לראות, הלקוח רכש מכונה שהיא או חזקה מדי לאותו סוג עבודות, או שהיא חלשה מדי. מה לעשות, לא כולם לוקחים בחשבון חישובי Single threaded Performance לתוכנות "סוררות" כמו פוטושופ, אפטר אפקט ועוד.
  • למכונה אין גיבוי בפתרון הגיבוי המרכזי, כך שאם מישהו החליט שעכשיו זה רעיון טוב לשדרג לדוגמא את פרמייר ופתאום פרמייר כלל לא מוכן לעבוד, גם לאחד הסרת הגירסה החדשה – יהיה לנו עובד ותחנה מושבתים, וכמה שעות של עבודה כדי להחזיר את התחנה לעבודה רגילה. כנ"ל גם במקרים שיש תקלות פתאומיות (כי מישהו לחץ על OK להתקין עדכוני Windows ש..אופס, דפקו את התחנה)

כיום, אם שואלים את עבדכם הנאמן – רכישת תחנות עבודה, גם לצרכי יצירת/עריכת תכנים כמו התכנים המודברים בפוסט זה – היא מיותרת. כל מה שצריך בצד של העובד זה מחשב מאוד פשוט, כמו המחשב בתמונה משמאל (העפרון נועד להמחשת הגודל) ואליו יחוברו המסכים, מקלדת, עכבר, טאבלט (אם צריך) ועוד. אני כמובן מדבר על Thin Client.

כיום, כל אולפן שמחזיק מספר דו ספרתי של עובדים (עורכים/קולוריסטים/אפטריסטים ושלל טים אחרים…) שמחשב עלויות של רכישת/שדרוג תחנות עבודה עם כל הציוד הנדרש, כשמוסיפים עלות שדרוגים, פתרון אחסון מהיר וכו' – יכול למצוא שפתרונות מבוססי שרתים עם וירטואליזציה, יתנו כמה דברים חדשים שיכולים לסייע לארגון, כמו:

  • התאמה מדויקת של מכונה וירטואלית לאותו עובד. בתחנות עבודה יש צורך לקבוע מראש כמות ליבות/זכרון/סוג GPU. במכונה וירטואלית אפשר לעומת זאת "לחתוך" כמות מדוייקת ובכך למנוע בזבוז משאבים. מעבד עם 20 ליבות לדוגמא, הוא דבר מיותר לחלוטין לפוטושופ או לאפטר אפקט.
  • אפשרות שדרוג מיידית כשצריך יותר משאבים: רבים אולי לא מודעים לכך, אבל כשעורכים סרט/וידאו, עריכה "רגילה" (חיתוך, Transitions, דברים די בסיסיים) אינה מצריכה כמו זכרון VRAM גדולה. לעומת זאת, קולוריסטים שמשתמשים ב-דה-וינצ'י ויוצרי אפקטים (באותה תוכנה) יצטרכו כמות VRAM הרבה יותר גדולה, ואת זה אפשר לקבוע פר VM.
  • מכונות ה-VM הנ"ל יגובו כל יום במסגרת גיבוי מרכזי באולפן וכך, גם במקרה של תקלת "הצילו" יהיה אפשר לחזור יום אחורה בלי בעיה תוך דקות ספורות.
  • התכנים ישבו בתוך פתרון אחסון (אין צורך במשהו סופר יקר) שגם הוא יגובה, כך שגם כאן – שום תוכן לא הולך לאיבוד ולא מסתמכים יותר על פתרונות NAS שעולים 800 שקל ב-IVORY.
  • אפשר לעבוד מכל מקום – מהלאפטופ, בגינה בחוץ, אפשר להדגים בחדרי ישיבות את העבודה ועוד ועוד.
  • קל להוסיף משאבים לשרתים: GPU? זכרונות? מעבירים את מכונות ה-VM למכונה אחרת, מוסיפים, מפעילים, יוצאים ממצב Maintenance, ואפשר לפזר את המשאבים החדשים למי שצריך.

הפתרון שאני מדבר עליו קשור ל-VMware (למען האמת, גם פתרונות מתחרים כמו Nutanix, Xen יתנו את אותו פתרון) ללא שימוש ב-VDI. החיבור עצמו יכול להתבצע דרך RDP שקיים בתוך ה-VM או דרך פתרון צד ג' כמו Parsec או Teradici. מבחינת Latency, מנסיונות שביצעתי לאחרונה, הוא נמוך מאוד.

מה לגבי עבודה מרחוק, מהבית? ובכן, בישראל, לצערי ספקי אינטרנט אוהבים "לשחק" עם רוחבי הפס (הן מצד החוות שרתים והן מצד ה-DSL/כבלים). פרמייר/דה-וינצ'י/AVID ותוכנות אחרות בעבודה מרחוק דורשים רוחבי פס די משמעותיים (20-50 מגהביט), במיוחד עם פתרונות תקשורת כמו Teradici אם מעוניינים לקבל צבעים מדוייקים לקולוריסטים – ולפחות ממה שידוע לי, לפעמים אפשר לקבל תקשורת מהירה כזו ולפעמים .. לא (מהצד של ה-DSL). את זה בכל מקרה אני חושב לבדוק בקרוב.

לסיכום: אני ממליץ לכל סטודיו שצריך לשדרג מכונות או שצריך לרכוש מכונות חדשות או שחושב להשקיע בתשתית הפנימית – להעביר את כל העבודה לשרתים. נכון, הסכום הראשוני אינו קטן (במיוחד שצריך לרכוש כרטיסים כמו Quadro ושרתים שיכולים להכיל 2 כרטיסים ומעלה וכמות זכרןו נאה), אולם העבודה כך תצליח לחסוך נפילות ו-Downtime ורמת השרידות תהיה גבוהה בהרבה.

בעקבות אירועי אבטחה וקורונה: כדאי VDI?

אם מחר יצא לי לפגוש חבר שהולך להתחיל את צעדיו בעולם הפרילאנס, בתחומים כמו יעוץ, אינטגרציית פתרונות וכו' – הייתי שמח לתת לו 3 טיפים חשובים בתור התחלה:

  1. לא חשוב מה הפתרון – חברות רוצות לראות שאחרים (לפחות בגודל של אותו לקוח, עדיף יותר גדול) משתמשים בפתרון
  2. שהפתרון לא יהיה Bleeding Edge
  3. הלקוח ירצה לנהל את הפתרון In House עם כמה שפחות תלות מבחוץ.

בפעם האחרונה שהממשלה החליטה פה על סגר, כמעט כל החברות, גדולות כקטנות – עטו על יבואני מחשבים ניידים, מצלמות Web וכו'.

וזו היתה טעות רצינית. לעניות דעתי.

מדינות שונות שיש ברשותן זרועות סייבר שמנסות לפרוץ ולמצוא חולשות או לגנוב מידע – יעשו הכל על מנת שלא להתגלות ברדאר של הלקוח. הם ימפו את הרשת הפנימית והחיצונית של הלקוח, ימצאו חולשות, ימשכו קבצים של סיסמאות כדי להשתמש מבחוץ ב-"Rainbow Table" כדי לפענח סיסמאות, הם ימצאו דרכים לשאוב ולגנוב מידע, והעיקר: הם יבצעו כמעט אפס שינויים במערכות בארגון. אף אחד לא יקבל בארגון אימייל מהארגון הפורץ "פרצנו וגנבנו לכם הכל, חה חה חה". הם ישתמשו במידע הזה יותר מאוחר, בין אם למכור אותו לחברות וארגונים אחרים, ובין אם להשתמש בו לשימושים אחרים שונים.

לאפטופים לעובדים לעבוד מהבית דרך VPN היא דרך מעולה כדי להחליש בצורה משמעותית את כל עניין אבטחת המידע. לאפטופ, בסופו של יום, ישומש גם באינטרנט פתוח (ביתי, בחוץ) ולמומחים לפרוץ Windows לוקח דקות ספורות, נתב ביתי – פחות מכך (בהתחשב בכך שאף ארגון שמוכר את הראוטרים הללו לא מעדכן עדכוני אבטחה באופן אוטומטי, שלא לדבר על כך שאף אחד לא שולח התראות אבטחה על עדכונים חדשים. קיבלתם איזו הודעה כזו לאחרונה מ-בזק/הוט?), ולאחר פריצה ללאפטופ (אותם ארגונים יודעים איך לעקוף כל AV וכל מיני פתרונות אחרים) – כל מה שהם צריכים לעשות זה להטמיע אפליקציה או סקריפטים שרצים ברקע, וכשהמשתמש מתחבר ל-VPN – אפשר להתחיל לחגוג!!

בעולם ה-VDI הדברים שונים. לחלוטין.

הרעיון המרכזי ב-VDI הוא שאתה יכול להתחבר אל הדסקטופ הוירטואלי עם כל סוג של ציוד, כל עוד אותו ציוד מכיל אפליקציה שיודעת "לדבר" בשפת התקשורת להתחברות ל-VDI (הדוגמא הכי נפוצה: RDP), כלומר אותו ציוד שתתחבר איתו, יכול להיות בעל מערכת הפעלה אחרת (לינוקס לדוגמא), מעבד שאינו X86 (כמו ARM), או Form Factor שאינו כולל מסך נייח (סמארטפון, טאבלט). פתרון החיבור מעביר בסופו של דבר כברירת מחדל את הקשות המקלדת, תנועות עכבר ותצוגה – דרך תקשורת מוצפנת. בברירת המחדל, אין גישה לשום ציוד מקומי כמו מדפסת, דיסקים קשיחים, חיבורי USB (שאינם מקלדת ועכבר) וכו' ובדרך כלל תהיה גם הפרדה ברמת הרשת בין גישת ה-RDP לבין התקשורת שהדסקטופ הוירטואלי עצמו משתמש – לצורך גלישה באינטרנט/אינטרה-נט לדוגמא, כך שגם אם מחשב פרוץ מתחבר, אין לו גישה ישירה אל הקבצים והתיקיות בדיסק הקשיח הוירטואלי או דרך להריץ סקריטפים מהמחשב הנייד הנגוע למכונת הדסקטופ הוירטואלית. שכבה נוספת של הגנה שקיימת בפתרונות כמו Horizon של VMware היא שימוש חד פעמי בדסקטופ וירטואלי, כך שאם המשתמש התנתק/ביצע Log out – אותו VM פשוט ימחק ויבנה מחדש, כך שגם אם מישהו הצליח לפרוץ, אותו VM "יחיה" רק בזמן סשן החיבור של המשתמש, ולאחריו – (לפי ה-Policy שנקבע) המכונה תימחק.

כל מה שתיארתי הוא די בסיסי מבחינת אבטחת מידע. אפשר מכאן והלאה לקחת את זה לרמות יותר גבוהות הכוללות בדיקת Integrity של הציוד שיתחבר (לדוגמא באנדרואיד יש SafetyNet, ב-iOS יש מספר דרכים לבדוק אם המכשיר עבור Jailbreak, וב-Windows מיקרוסופט עובדת על פתרון "שרשרת" שעובר מה-BIOS והלאה כדי לבדוק שדברים לא שונו. בלינוקס יש מספר דרכים, כאשר הדרך הפופולרית ביותר היא לחתום עם TPM על ה-Image, לבצע mount כ-read only ועוד מספר דברים על מנת למנוע tampering ב-thin client) – ובכך למנוע כמה שיותר נסיונות פריצה לרשת הפנימית של הארגון.

לסיכום: ארגונים שמריצים מערכות דסקטופ רבות (לפחות אחת פר עובד) – אני ממליץ להן לשקול ברצינות מעבר ל-VDI. כיום דרישות החומרה אינן כה גבוהות (אפשר אפילו לעשות זאת גם ללא רכישת סטורג' All Flash NVME ב-7 ספרות בדולרים) אם משתמשים בשרתים מודרניים, ולגבי מחירי License אפשר תמיד למצוא פתרון עם נציגי המכירות של יצרני פתרונות VDI השונים. אם הנתונים שלכם בחברה חשובים – כדאי לשקול זאת.

מעבדי Cooper Lake של אינטל (Xeon SP דור 3)

אינטל הציגה לאחרונה את מעבדי ה-Xeon SP דור 3. סביר להניח שאם אתם לא ממש בודקים חדשות לגבי מעבדים, לא ממש שמעתם הרבה דברים על כך, והסיבה לכך היא שהפעם אינטל החליטה לחלק את ההכרזה ל-2: מעבדים לשרתים בעלי 4 ו-8 מעבדים (שם קוד: Cooper Lake) עכשיו, ומעבדים לשרתים 1-2 מעבדים – שנה הבאה כנראה (שם קוד: Ice Lake). זו, אגב, הסיבה שרוב הגולשים כאן לא ממש שמעו מנציגי שיווק של יצרני השרתים, מכיוון שהיצרנים כמעט ולא הוציאו שרתים חדשים עם המעבדים החדשים, דגש על כמעט – כל היצרנים הגדולים הוציאו 1-2 דגמים עם תמיכה ברוב המקרים ל-4 מעבדים ותו לא (שרתים כאלו עם 8 מעבדים – הם מאוד פופולריים בסין, לא בשאר העולם).

מבחינת שינויים ושיפורים במעבדים החדשים – אין הרבה, ומה שיש, די מאכזב:

  • "פי 2 ביצועים" – כן, כשמשווים את המעבדים החדשים למעבדים מלפני 5 שנים, וגם אז – רק ב-workloads מסוימים בלבד.
  • bfloat, VNNI – אינטל מנסה שוב ושוב להיכנס לתום ה-Machine/Deep Learning/AI ומכניסה תמיכה במתודות נוספות לתמיכה בתחומים הנ"ל. הבעיה המרכזית: לקוחות רצו/רוצים/ירצו לעשות זאת דרך ה-GPU כי זה זמין (לא צריך לרכוש שרת שלם, אפשר פשוט לרכוש כרטיס), קל לשדרג (שוב, אפשר להחליף כרטיס, לא צריך להחליף שרת שלם) ויותר זול.
  • תמיכה בזכרון – אינטל סוף סוף החליטו להעלות את מהירות הזכרון הנתמך ל-3200 מגהרץ, שנה אחרי ש-AMD עשו זאת. מצד שני, כל מעבד תומך מקסימום 256 ג'יגהבייט זכרון, או איך אומרים בקומדיה "היהודים באים" – "איזה עולב".
  • תמיכה ב-Optane Persistent Memory 200. עוד משהו שלא ממש הולך איתו חזק לאינטל, אבל היי, סיבוב שלישי, אולי יצליח הפעם?

חלק מההכרזה יועד ל-SSD החדשים של אינטל, ה-D7-P5500, P5600. אלו באמת דיסקים SSD מעולים, עם בעיה קטנטנה שלא קשורה טכנית ל-SSD עצמו: בשביל לקבל ביצועים טובים, תצטרך שרתים עם … מעבדי EPYC של AMD, מכיוון שאינטל עדיין לא שחררה שום chipset שתומך ב-PCIe דור רביעי, ואותם SSD דווקא צריכים זאת כדי לתת את הביצועים המיטביים.

אחת ההפתעות לעיתונאים ולאלו שצפו בהכרזה (וקיבלו מידע מוקדם) – היתה שאינטל לא הכריזה על מעבדים חדשים עם 56 ליבות (אלו בעצם מארזים שמודבקים בהם 2 מעבדים עם 28 ליבות. מה שאינטל גיכחה על AMD – בסוף הם בעצמם עשו). ההערכה היא שאינטל בכל זאת תכריז על כך בשנה הבאה, כשהיא תכריז על Xeon SP דור 3-חלק-ב' (שם קוד: Ice Lake).

לסיכום: אני לא ממש מצליח להבין את אינטל. עם כל המשאבים שיש לחברה, עם כל מאגר המוחות העצום שעובד בחברה – זה הדור השלישי של Xeon SP שהחברה מצליחה להוציא? זה הכל? אם מעבדי ה-Ice Lake יהיו ללא תכונות חדשות, יותר ממה שאינטל מציעים ב-Cooper Lake, אני אתקשה להבין מדוע חברות ירצו לרכוש שרתים עם מעבדים כאלו, ובמקרה כזה עדיף יהיה כבר לרכוש את השרתים עם המעבדים הנוכחיים – Xeon SP דור שני או מעבדי AMD EPYC.

מעבר למעבדים אחרים – של אפל

אפל הודיעה אתמול רשמית (ומי שעוקב אחר השמועות – כבר שמע זאת לפני יותר מ-8 חודשים) שהם מתחילים תהליך מעבר (Transition) בין מעבדים של אינטל למעבדים שהחברה מפתחת (בניגוד לכל מיני שטויות שנכתבו באתרים שונים, החברה לא מייצרת מעבדים, חברת TSMC מייצרת עבור אפל).

תרשו לי לאמר על כך כמה מילים..

מבחינה טכנית, אפל משתמשת כיום באייפון ובאייפד במעבדים מתכנון שלה, ואותם מעבדים אכן נותנים ביצועים טובים, והם פחות או יותר באתה רמה של מעבדי ה-High End של קוואלקום (סידרה 865 או +865 לדוגמא). הסיבה שאפל מנצחת בבדיקות ביצועים קשורה יותר ל-OS: אי אפשר לבדוק מעבדים של קוואלקום על iOS ואנדרואיד די גרוע באופטימיזציה למעבד – בהשוואה ל-iOS (הסיבה קשורה לכך שאפל צריכה לעשות אופטימיזציה רק למשפחת מעבדים אחת שלהם, בשעה שאנדרואיד צריך לרוץ לא רק על מעבדים של קוואלקום אלא גם של מדיהטק ואחרים, וגוגל לא הולכת לעשות אופטימיזציות כאלו).

לא מעט אנשים יצביעו על כך שבמבחנים כמו Geek Bench המעבדים כמו A12X/A12Z של אפל "נותנים פייט" למעבדים של אינטל. אני בהחלט מאמין לתוצאות, אבל זה לא כל הסיפור.

מעבד טוב צריך לא מעט זכרון Cache בשלבים שונים כמו L1,L2,L3 בשביל לבצע עבודות שדורשות ריצה חוזרת לחלקי קוד שונים. אם נשווה את ה-A12Z של אפל ל-i9-9900 של אינטל, נראה כי ברמת L1, לאפל יש 128K להוראות ו-128K ל-DATA (שזה טוב), לאינטל יש 512K שמחולקים בצורה שונה. כשזה מגיע ל-L2, אפל כוללת 8 מגהבייט (אין פרסום איך החלוקה), ואילו אינטל כוללת 2 מגהבייט שמחולקים ל-256K פר ליבה. כשזה מגיע ל-L3, ל-A12Z אין את זה בכלל, ולאינטל יש 16 מגהבייט (כ-2 מגה פר ליבה), ול-L3 יש חשיבות מכרעת, ואת זה ניתן יהיה לראות בקרוב מבחינה מספרית גם במעבדים החדשים בדור הבא של אינטל ו-AMD.

ה-A12Z (זה המעבד שאפל החליטה לייעד בשלב זה במחשבי הפיתוח למפתחים שמעוניינים להמיר את האפליקציות שלהם לרוץ על מעבדים אלו) הוא מעבד טוב וחזק, אבל הוא חזק לדברים מוגבלים שניתן להריץ על אייפד. קחו לדוגמא את חלק ה-GPU שנמצא במעבד: יש בו 8 ליבות יעודיות ל-GPU. לאינטל, לדוגמא, עם ה-Iris Graphics יש 64 ליבות יעודיות לכך (זה נקרא שם Execution Units). ה-A12Z מציג ביצועים מרשימים על אייפד מבחינת ה-GPU, אבל בסופו של יום, אם אתה רוצה להריץ עבודות מורכבות שירוצו על מק עם מעבד A12Z, ה-GPU של אפל במעבד ה-A12Z לא יספק ביצועים גבוהים כי הוא פשוט לא בנוי לכך, ה-iPadOS של אפל גם כך מגביל פנימית את המערכת בחלוקת משאבים, בהשוואה למק עם iOS.

מי שהסתכל במצגת של אפל, אולי שם לב לכך שבמסגרת הצגת המעבר, לא נאמרה ולו פעם אחת אימרה כלשהי שה-A12Z מהיר יותר בהשוואה למה שאינטל כיום מוכרת לאפל, וזה בדיוק העניין: ה-A12Z רחוק מאוד מכך – ברגע שמתחילים לזרוק כמות עבודות גדולה או עבודה גדולה ומשולבת מאוד על ה-A12Z (ההדגמות אתמול על MAYA פוטושופ וכו' היו הדגמות מאוד סלקטיביות שמשתמשות ב-RAM כ-Cache) ואפל תצטרך לפתח מעבד חדש הרבה הרבה יותר רציני כדי לתת "פייט" למעבדי אינטל שאפל משלבת כיום במחשבים הניידים שלה.

במחשב הדסקטופ של אפל (ה-Mac Pro) – הסיפור אחר. המעבדים של אפל יכולים אולי להתחרות במעבדי הדסקטופ של אינטל במבחנים מסויימים (אלו עד 4 ליבות) אבל כשזה מגיע למעבדים עם 8 ליבות ומעלה, עם יותר זכרונות מטמון L1,L2,L3, עם מעבדי ה-Skylake X הישנים (מלפני 3 שנים) ועד מעבדי ה-Xeon מסידרה 31XX,32XX, ובקרוב ה-33XX – לאפל אין שום דבר שמתקרב לביצועים של המעבדים הנ"ל (ועוד לא הזכרתי את הפתרונות של המתחרים, AMD) ואפל תצטרך להוכיח לעולם ולמשקיעים שהם יכולים להוציא מעבדים שהם הרבה יותר חזקים ממה שהם מוציאים כיום.

אבל הבעיה המרכזית של אפל תהיה יותר קשורה ללקוחות, אותם לקוחות שרכשו בעשרות אלפי דולרים מחשבי מק פרו לעסק, ואפל פתאום מודיעה להם שהחברה הולכת לעבור תוך שנתיים למעבד וארכיטקטורה אחרת, וזאת בשעה שהם השקיעו סכומים גדולים רק בחודשים האחרונים. אפל מדברת על מעבר תוך שנתיים, אבל תוך שנתיים לא יהיה לאפל שום פתרון שיכול להתחרות במעבדי Xeon מ-10 ועד 28 ליבות (ובקרוב פי 2 יותר. משום מה אינטל לא הוציאו את המעבדים החדשים בשבועות האחרונים),תמיכה בכמות מרובה של נתיבי PCIe, תכנון תושבת חדשה למעבד (הפעם אי אפשר פשוט לקחת מאינטל), בכמות גדולה של זכרון ועוד ועוד, ולכן אפל תצטרך להמשיך גם הרבה לאחר השנתיים המתוכננות – לתמוך בפתרונות מבוססי אינטל ולוודא שכל מיני לקוחות לא יחשבו לקפוץ לכיוון ה-Windows.

לסיכום: בסופו של יום, אני בהחלט יכול להבין את המניע של אפל. חיי הסוללה של מעבדי אינטל עדיין נמוכים, גם כשהבעיה היתה ידועה לאינטל יותר מעשור (ואגב, צריכת החשמל במחשבים ניידים מבחינת החלקים "מסביב" דווקא ירדה – אין יותר דיסק מכני, פאנל התצוגה לוקח פחות חשמל) ואפל כבר לא אוהבת להיות תלויה באינטל לגבי פתרונות עיבוד (למרות שלחברת אינטל יש מחלקה שלמה לבניית גרסאות מעבדי Custom), אך יחד עם זאת, אפל צריכה להיות הרבה יותר ברורה כלפי לקוחותיה ולהצהיר כבר עכשיו – למשך כמה זמן היא הולכת לתמוך בפתרונות מבוססי אינטל וכמו כן לדבר על פתרונות המק-פרו ומה אפל הולכת לעשות בנידון.