עריכת תכני מולטימדיה – תחנות עבודה מול עבודה מרחוק

לא מעט אולפנים רוכשים תחנות עבודה ותחנות דסקטופ על מנת ליצור ולערך תכנים כמו וידאו, אודיו, אנימציה, תלת-מימד, CAD וכו'. בשבילם קניה כזו שווה הואיל ורכישה כזו מכסה בעצם את הכל ובנוסף מקבלים תמיכה מיצרן השרתים, ויצרן התוכנות נותן תמיכה לתחנות כאלו.

לשיטה כזו יש כמובן יתרונות כמו "שקט" ללקוח הרוכש, אולם יש לה גם בעיות:

  • חוק מרפי אומר שאם ידפק הדיסק הקשיח של תחנת העבודה, שחזור דרך ה-Image לעולם לא יספיק ותמיד יאבדו קבצים חשובים ספציפית לאותו עורך או קבצים חשובים אחרים שנשמרו בתחנה אך מעולם לא גובו בגיבוי המרכזי.
  • Overpowered או Underpowered – בלא מעט מקרים שיצא לי לראות, הלקוח רכש מכונה שהיא או חזקה מדי לאותו סוג עבודות, או שהיא חלשה מדי. מה לעשות, לא כולם לוקחים בחשבון חישובי Single threaded Performance לתוכנות "סוררות" כמו פוטושופ, אפטר אפקט ועוד.
  • למכונה אין גיבוי בפתרון הגיבוי המרכזי, כך שאם מישהו החליט שעכשיו זה רעיון טוב לשדרג לדוגמא את פרמייר ופתאום פרמייר כלל לא מוכן לעבוד, גם לאחד הסרת הגירסה החדשה – יהיה לנו עובד ותחנה מושבתים, וכמה שעות של עבודה כדי להחזיר את התחנה לעבודה רגילה. כנ"ל גם במקרים שיש תקלות פתאומיות (כי מישהו לחץ על OK להתקין עדכוני Windows ש..אופס, דפקו את התחנה)

כיום, אם שואלים את עבדכם הנאמן – רכישת תחנות עבודה, גם לצרכי יצירת/עריכת תכנים כמו התכנים המודברים בפוסט זה – היא מיותרת. כל מה שצריך בצד של העובד זה מחשב מאוד פשוט, כמו המחשב בתמונה משמאל (העפרון נועד להמחשת הגודל) ואליו יחוברו המסכים, מקלדת, עכבר, טאבלט (אם צריך) ועוד. אני כמובן מדבר על Thin Client.

כיום, כל אולפן שמחזיק מספר דו ספרתי של עובדים (עורכים/קולוריסטים/אפטריסטים ושלל טים אחרים…) שמחשב עלויות של רכישת/שדרוג תחנות עבודה עם כל הציוד הנדרש, כשמוסיפים עלות שדרוגים, פתרון אחסון מהיר וכו' – יכול למצוא שפתרונות מבוססי שרתים עם וירטואליזציה, יתנו כמה דברים חדשים שיכולים לסייע לארגון, כמו:

  • התאמה מדויקת של מכונה וירטואלית לאותו עובד. בתחנות עבודה יש צורך לקבוע מראש כמות ליבות/זכרון/סוג GPU. במכונה וירטואלית אפשר לעומת זאת "לחתוך" כמות מדוייקת ובכך למנוע בזבוז משאבים. מעבד עם 20 ליבות לדוגמא, הוא דבר מיותר לחלוטין לפוטושופ או לאפטר אפקט.
  • אפשרות שדרוג מיידית כשצריך יותר משאבים: רבים אולי לא מודעים לכך, אבל כשעורכים סרט/וידאו, עריכה "רגילה" (חיתוך, Transitions, דברים די בסיסיים) אינה מצריכה כמו זכרון VRAM גדולה. לעומת זאת, קולוריסטים שמשתמשים ב-דה-וינצ'י ויוצרי אפקטים (באותה תוכנה) יצטרכו כמות VRAM הרבה יותר גדולה, ואת זה אפשר לקבוע פר VM.
  • מכונות ה-VM הנ"ל יגובו כל יום במסגרת גיבוי מרכזי באולפן וכך, גם במקרה של תקלת "הצילו" יהיה אפשר לחזור יום אחורה בלי בעיה תוך דקות ספורות.
  • התכנים ישבו בתוך פתרון אחסון (אין צורך במשהו סופר יקר) שגם הוא יגובה, כך שגם כאן – שום תוכן לא הולך לאיבוד ולא מסתמכים יותר על פתרונות NAS שעולים 800 שקל ב-IVORY.
  • אפשר לעבוד מכל מקום – מהלאפטופ, בגינה בחוץ, אפשר להדגים בחדרי ישיבות את העבודה ועוד ועוד.
  • קל להוסיף משאבים לשרתים: GPU? זכרונות? מעבירים את מכונות ה-VM למכונה אחרת, מוסיפים, מפעילים, יוצאים ממצב Maintenance, ואפשר לפזר את המשאבים החדשים למי שצריך.

הפתרון שאני מדבר עליו קשור ל-VMware (למען האמת, גם פתרונות מתחרים כמו Nutanix, Xen יתנו את אותו פתרון) ללא שימוש ב-VDI. החיבור עצמו יכול להתבצע דרך RDP שקיים בתוך ה-VM או דרך פתרון צד ג' כמו Parsec או Teradici. מבחינת Latency, מנסיונות שביצעתי לאחרונה, הוא נמוך מאוד.

מה לגבי עבודה מרחוק, מהבית? ובכן, בישראל, לצערי ספקי אינטרנט אוהבים "לשחק" עם רוחבי הפס (הן מצד החוות שרתים והן מצד ה-DSL/כבלים). פרמייר/דה-וינצ'י/AVID ותוכנות אחרות בעבודה מרחוק דורשים רוחבי פס די משמעותיים (20-50 מגהביט), במיוחד עם פתרונות תקשורת כמו Teradici אם מעוניינים לקבל צבעים מדוייקים לקולוריסטים – ולפחות ממה שידוע לי, לפעמים אפשר לקבל תקשורת מהירה כזו ולפעמים .. לא (מהצד של ה-DSL). את זה בכל מקרה אני חושב לבדוק בקרוב.

לסיכום: אני ממליץ לכל סטודיו שצריך לשדרג מכונות או שצריך לרכוש מכונות חדשות או שחושב להשקיע בתשתית הפנימית – להעביר את כל העבודה לשרתים. נכון, הסכום הראשוני אינו קטן (במיוחד שצריך לרכוש כרטיסים כמו Quadro ושרתים שיכולים להכיל 2 כרטיסים ומעלה וכמות זכרןו נאה), אולם העבודה כך תצליח לחסוך נפילות ו-Downtime ורמת השרידות תהיה גבוהה בהרבה.

תכירו: Threadripper Pro

הסיפור עם מעבדי Threadripper הוא סיפור יחודי. קבוצת מהנדסים משתי קבוצות שונות ב-AMD בנו מעבד שמורכב מחלקים הקשורים גם לדסקטופ וגם לשרתים, כאשר הדגש הוא שהמעבד יהיה עבור משתמשי דסקטופ ובמחירים הרבה יותר נמוכים ממה שאינטל מבקשת. משפחת המעבדים זכתה להצלחה ולהתעניינות שיא של לקוחות החברה שמעוניינים במעבדים מרובי ליבות ובמעבדים עוצמתיים במחירים נוחים.

מעבדי ה-Threadripper, כפי שציינתי לעיל, היו מיועדים בראש ובראשונה למשתמשי הדסקטופ (ליתר דיוק, לסקטור ה-HEDT, כלומר High End Desk Top). כמות ערוצי הזכרון קוצצה בחצי בהשוואה למעבדי EPYC (המיועדים לשרתים), כמות הזכרון הנתמכת היתה מיניאטורית (בגרסאות הראשונות – עד 128 ג'יגהבייט), כמות נתיבי ה-PCIe נחתכה בחצי (64 נתיבים) אך מצד שני – מהירות המעבד עלתה באחוזים ניכרים בהשוואה למעבדי EPYC, הואיל ומעבדי Threadripper הצריכו קירור צמוד, בניגוד לקירור שקיים למעבדים עבור שרתים.

תחום אחד נשאר מחוץ לתמונה: שוק תחנות העבודה. יצרני תחנות העבודה כמו לנובו, Dell, HP, Supermicro ואחרים לא יכלו לקחת מעבדי Threadripper ולבנות מסביבם תחנת עבודה, הואיל ומספר דברים שלקוחות הארגונים דורשים – היו חסרים:

  1. ניהול מרוכז ברמת ה-BIOS/חומרה
  2. אבטחה ברמה יותר גבוהה ברמת המעבד
  3. התחייבות לייצור המעבדים למספר ארוך של שנים (5-7)
  4. תמיכה של AMD למעבדים מסביב לשעון עבור יצרני התחנות
  5. תמיכה לכמות ערוצי זכרון וכמות זכרון יותר גדולה
  6. תמיכה רשמית של AMD לסוגי זכרון המיועד לשרידות (RDIMM, ECC, 3DS וכו') במעבדים אלו
  7. שבב Chipset יעודי לתחנות עבודה
  8. מעבדים בגירסה מיוחדת – לתחנות עבודה

ל-AMD, חשוב לציין – יש אפס נסיון ביצירת מעבדים לתחנות עבודה. עד כה בדורות קודמים (טרום ZEN) המעבדים ש-AMD יצרו לשרתים, יוצרו לשרתים בלבד ותו לא, ו-AMD לא ממש תכננה לבנות פתרונות לתחנות עבודה.

ואז .. הגיעו אפל והראו את היצירה החדשה שלהם: מק פרו, עם מעבדי Xeon עד 28 ליבות, ותמיכה ב-1.5 טרהבייט זכרון, מראה חתיכי ושקט. עכשיו המתחרים בבעיה: כן, הם יכולים להציע מחשבים עם אותו מפרט ועם אותם מעבדים (ומחשבי המתחרים יהיו למען האמת מעט יותר מהירים הואיל ואפל מורידים את ביצועי ה-Xeon עם 28 ליבות בערך ב-20% כדי שהמחשב לא יתחמם יותר מדי…), אבל המתחרים רוצים משהו יותר חזק, משהו שיכול "להרביץ" למק-פרו. המתחרים היקרים לא יכולים להשתמש במעבדי EPYC, הואיל ו-EPYC עם Windows 10 – לא משהו שרץ טוב, בכלל. (ה-EPYC בנוי יותר להריץ לינוקס ו-VMware, וגם FreeBSD אם כי שם עדיין חסר עבודה).

זמן קצר לאחר שהחלו השמועות על המק פרו, יצרני תחנות העבודה החלו ליצור קשר וללחוץ על AMD להוציא משהו. מכיוון שאי אפשר כך לעשות COPY PASTE ממעבדים אחרים של AMD, ב-AMD החליטו להיענות לאתגר ולבנות Chipset חדש וגירסת מעבדי Threadripper חדשים. יצרני לוחות האם קיבלו כמובן גישה מוקדמת ויד חופשית לבנות לוחות מפלצות שאינן מוגבלות כמו במקרה של מעבדי אינטל (רק 6 ערוצי זכרון, רק 44 נתיבי PCIe ועוד)

תכירו: Threadripper Pro. למעבדים אלו יש את התכנות הנוספות הבאות, בהשוואה למעבדי Threadripper:

  • תמיכה עד 2 טרהבייט זכרון (ECC, RDIMM, UDIMM, 3DS)
  • ערוץ 8 ערוצי זכרון (מקל זכרון פר ערוץ, כמחצית ממעבדי EPYC)
  • 128 נתיבי PCIe
  • תמיכת זכרון במהירות 3200 מגהרץ
  • תמיכה בפונקציות PRO של AMD (דומה ל-vPro של אינטל)

ב-AMD מכריזים היום על ארבעה מעבדי Threadripper Pro חדשים:

שם דגם כמות ליבות מהירות בסיס מהירות מירבית כמות זכרון L3
Threadripper Pro 3945WX 12 4.0 4.3 64
Threadripper Pro 3955WX 16 3.9 4.3 64
Threadripper Pro 3975WX 32 3.5 4.2 128
Threadripper Pro 3995WX 64 2.7 4.2 256

(נכון לשעת כתיבת פוסט זה, אין מחירים ידועים. לאחר פרסום רשמי של המחירים – יעודכן פוסט זה).

נקודה חשובה לציון: מעבדי Threadripper Pro, כמו "אחיהם" Threadripper – לא מחפשים להתחרות במחירים נמוכים. AMD כבר הורידה את מחירי ה-Ryzen ב-50-100 דולר, אבל Threadripper נשאר בדיוק באותו מחיר ו-Threadripper Pro סביר להניח שיהיה יותר יקר מ-Threadripper רגיל (אך עדיין במרחק עצום מהמחירים שאינטל מבקשת). בנוסף – לוחות אם ל-Threadripper Pro (הלוחות אינם תואמים ל-Threadripper) יתחילו במחירים של 500 דולר ומעלה.

לסיכום: אם אתם צריכים מחשב עם המון כח, עם קיבולת גדולה של כרטיסי GPU וכרטיסים אחרים, חיבורי דיסקים U.2 ואתם מעוניינים לרכוש פתרון מוכן מאחת יצרניות תחנות העבודה הגדולות – כעת יש לכם אפשרות לבחור לא רק בפתרונות של אינטל אלא גם בפתרונות הרבה יותר חזקים.

הערה: ההכרזה הרשמית תהיה הערב, וההכרזה של חברת Lenovo תהיה ב-19:30 בערב שעון ישראל, אתם יכולים להירשם לשידור כאן.

הערה נוספת למלעיזים: לא, אני לא נציג ולא מטעם AMD (יש עדיין אמברגו בעת כתיבת שורות אלו) וכשאני רוכש מעבדים, אני משלם עליהם מחיר מלא, כך שפוסט זה אינו מטעם ואינו ממומן.

בעקבות אירועי אבטחה וקורונה: כדאי VDI?

אם מחר יצא לי לפגוש חבר שהולך להתחיל את צעדיו בעולם הפרילאנס, בתחומים כמו יעוץ, אינטגרציית פתרונות וכו' – הייתי שמח לתת לו 3 טיפים חשובים בתור התחלה:

  1. לא חשוב מה הפתרון – חברות רוצות לראות שאחרים (לפחות בגודל של אותו לקוח, עדיף יותר גדול) משתמשים בפתרון
  2. שהפתרון לא יהיה Bleeding Edge
  3. הלקוח ירצה לנהל את הפתרון In House עם כמה שפחות תלות מבחוץ.

בפעם האחרונה שהממשלה החליטה פה על סגר, כמעט כל החברות, גדולות כקטנות – עטו על יבואני מחשבים ניידים, מצלמות Web וכו'.

וזו היתה טעות רצינית. לעניות דעתי.

מדינות שונות שיש ברשותן זרועות סייבר שמנסות לפרוץ ולמצוא חולשות או לגנוב מידע – יעשו הכל על מנת שלא להתגלות ברדאר של הלקוח. הם ימפו את הרשת הפנימית והחיצונית של הלקוח, ימצאו חולשות, ימשכו קבצים של סיסמאות כדי להשתמש מבחוץ ב-"Rainbow Table" כדי לפענח סיסמאות, הם ימצאו דרכים לשאוב ולגנוב מידע, והעיקר: הם יבצעו כמעט אפס שינויים במערכות בארגון. אף אחד לא יקבל בארגון אימייל מהארגון הפורץ "פרצנו וגנבנו לכם הכל, חה חה חה". הם ישתמשו במידע הזה יותר מאוחר, בין אם למכור אותו לחברות וארגונים אחרים, ובין אם להשתמש בו לשימושים אחרים שונים.

לאפטופים לעובדים לעבוד מהבית דרך VPN היא דרך מעולה כדי להחליש בצורה משמעותית את כל עניין אבטחת המידע. לאפטופ, בסופו של יום, ישומש גם באינטרנט פתוח (ביתי, בחוץ) ולמומחים לפרוץ Windows לוקח דקות ספורות, נתב ביתי – פחות מכך (בהתחשב בכך שאף ארגון שמוכר את הראוטרים הללו לא מעדכן עדכוני אבטחה באופן אוטומטי, שלא לדבר על כך שאף אחד לא שולח התראות אבטחה על עדכונים חדשים. קיבלתם איזו הודעה כזו לאחרונה מ-בזק/הוט?), ולאחר פריצה ללאפטופ (אותם ארגונים יודעים איך לעקוף כל AV וכל מיני פתרונות אחרים) – כל מה שהם צריכים לעשות זה להטמיע אפליקציה או סקריפטים שרצים ברקע, וכשהמשתמש מתחבר ל-VPN – אפשר להתחיל לחגוג!!

בעולם ה-VDI הדברים שונים. לחלוטין.

הרעיון המרכזי ב-VDI הוא שאתה יכול להתחבר אל הדסקטופ הוירטואלי עם כל סוג של ציוד, כל עוד אותו ציוד מכיל אפליקציה שיודעת "לדבר" בשפת התקשורת להתחברות ל-VDI (הדוגמא הכי נפוצה: RDP), כלומר אותו ציוד שתתחבר איתו, יכול להיות בעל מערכת הפעלה אחרת (לינוקס לדוגמא), מעבד שאינו X86 (כמו ARM), או Form Factor שאינו כולל מסך נייח (סמארטפון, טאבלט). פתרון החיבור מעביר בסופו של דבר כברירת מחדל את הקשות המקלדת, תנועות עכבר ותצוגה – דרך תקשורת מוצפנת. בברירת המחדל, אין גישה לשום ציוד מקומי כמו מדפסת, דיסקים קשיחים, חיבורי USB (שאינם מקלדת ועכבר) וכו' ובדרך כלל תהיה גם הפרדה ברמת הרשת בין גישת ה-RDP לבין התקשורת שהדסקטופ הוירטואלי עצמו משתמש – לצורך גלישה באינטרנט/אינטרה-נט לדוגמא, כך שגם אם מחשב פרוץ מתחבר, אין לו גישה ישירה אל הקבצים והתיקיות בדיסק הקשיח הוירטואלי או דרך להריץ סקריטפים מהמחשב הנייד הנגוע למכונת הדסקטופ הוירטואלית. שכבה נוספת של הגנה שקיימת בפתרונות כמו Horizon של VMware היא שימוש חד פעמי בדסקטופ וירטואלי, כך שאם המשתמש התנתק/ביצע Log out – אותו VM פשוט ימחק ויבנה מחדש, כך שגם אם מישהו הצליח לפרוץ, אותו VM "יחיה" רק בזמן סשן החיבור של המשתמש, ולאחריו – (לפי ה-Policy שנקבע) המכונה תימחק.

כל מה שתיארתי הוא די בסיסי מבחינת אבטחת מידע. אפשר מכאן והלאה לקחת את זה לרמות יותר גבוהות הכוללות בדיקת Integrity של הציוד שיתחבר (לדוגמא באנדרואיד יש SafetyNet, ב-iOS יש מספר דרכים לבדוק אם המכשיר עבור Jailbreak, וב-Windows מיקרוסופט עובדת על פתרון "שרשרת" שעובר מה-BIOS והלאה כדי לבדוק שדברים לא שונו. בלינוקס יש מספר דרכים, כאשר הדרך הפופולרית ביותר היא לחתום עם TPM על ה-Image, לבצע mount כ-read only ועוד מספר דברים על מנת למנוע tampering ב-thin client) – ובכך למנוע כמה שיותר נסיונות פריצה לרשת הפנימית של הארגון.

לסיכום: ארגונים שמריצים מערכות דסקטופ רבות (לפחות אחת פר עובד) – אני ממליץ להן לשקול ברצינות מעבר ל-VDI. כיום דרישות החומרה אינן כה גבוהות (אפשר אפילו לעשות זאת גם ללא רכישת סטורג' All Flash NVME ב-7 ספרות בדולרים) אם משתמשים בשרתים מודרניים, ולגבי מחירי License אפשר תמיד למצוא פתרון עם נציגי המכירות של יצרני פתרונות VDI השונים. אם הנתונים שלכם בחברה חשובים – כדאי לשקול זאת.

מעבדי Cooper Lake של אינטל (Xeon SP דור 3)

אינטל הציגה לאחרונה את מעבדי ה-Xeon SP דור 3. סביר להניח שאם אתם לא ממש בודקים חדשות לגבי מעבדים, לא ממש שמעתם הרבה דברים על כך, והסיבה לכך היא שהפעם אינטל החליטה לחלק את ההכרזה ל-2: מעבדים לשרתים בעלי 4 ו-8 מעבדים (שם קוד: Cooper Lake) עכשיו, ומעבדים לשרתים 1-2 מעבדים – שנה הבאה כנראה (שם קוד: Ice Lake). זו, אגב, הסיבה שרוב הגולשים כאן לא ממש שמעו מנציגי שיווק של יצרני השרתים, מכיוון שהיצרנים כמעט ולא הוציאו שרתים חדשים עם המעבדים החדשים, דגש על כמעט – כל היצרנים הגדולים הוציאו 1-2 דגמים עם תמיכה ברוב המקרים ל-4 מעבדים ותו לא (שרתים כאלו עם 8 מעבדים – הם מאוד פופולריים בסין, לא בשאר העולם).

מבחינת שינויים ושיפורים במעבדים החדשים – אין הרבה, ומה שיש, די מאכזב:

  • "פי 2 ביצועים" – כן, כשמשווים את המעבדים החדשים למעבדים מלפני 5 שנים, וגם אז – רק ב-workloads מסוימים בלבד.
  • bfloat, VNNI – אינטל מנסה שוב ושוב להיכנס לתום ה-Machine/Deep Learning/AI ומכניסה תמיכה במתודות נוספות לתמיכה בתחומים הנ"ל. הבעיה המרכזית: לקוחות רצו/רוצים/ירצו לעשות זאת דרך ה-GPU כי זה זמין (לא צריך לרכוש שרת שלם, אפשר פשוט לרכוש כרטיס), קל לשדרג (שוב, אפשר להחליף כרטיס, לא צריך להחליף שרת שלם) ויותר זול.
  • תמיכה בזכרון – אינטל סוף סוף החליטו להעלות את מהירות הזכרון הנתמך ל-3200 מגהרץ, שנה אחרי ש-AMD עשו זאת. מצד שני, כל מעבד תומך מקסימום 256 ג'יגהבייט זכרון, או איך אומרים בקומדיה "היהודים באים" – "איזה עולב".
  • תמיכה ב-Optane Persistent Memory 200. עוד משהו שלא ממש הולך איתו חזק לאינטל, אבל היי, סיבוב שלישי, אולי יצליח הפעם?

חלק מההכרזה יועד ל-SSD החדשים של אינטל, ה-D7-P5500, P5600. אלו באמת דיסקים SSD מעולים, עם בעיה קטנטנה שלא קשורה טכנית ל-SSD עצמו: בשביל לקבל ביצועים טובים, תצטרך שרתים עם … מעבדי EPYC של AMD, מכיוון שאינטל עדיין לא שחררה שום chipset שתומך ב-PCIe דור רביעי, ואותם SSD דווקא צריכים זאת כדי לתת את הביצועים המיטביים.

אחת ההפתעות לעיתונאים ולאלו שצפו בהכרזה (וקיבלו מידע מוקדם) – היתה שאינטל לא הכריזה על מעבדים חדשים עם 56 ליבות (אלו בעצם מארזים שמודבקים בהם 2 מעבדים עם 28 ליבות. מה שאינטל גיכחה על AMD – בסוף הם בעצמם עשו). ההערכה היא שאינטל בכל זאת תכריז על כך בשנה הבאה, כשהיא תכריז על Xeon SP דור 3-חלק-ב' (שם קוד: Ice Lake).

לסיכום: אני לא ממש מצליח להבין את אינטל. עם כל המשאבים שיש לחברה, עם כל מאגר המוחות העצום שעובד בחברה – זה הדור השלישי של Xeon SP שהחברה מצליחה להוציא? זה הכל? אם מעבדי ה-Ice Lake יהיו ללא תכונות חדשות, יותר ממה שאינטל מציעים ב-Cooper Lake, אני אתקשה להבין מדוע חברות ירצו לרכוש שרתים עם מעבדים כאלו, ובמקרה כזה עדיף יהיה כבר לרכוש את השרתים עם המעבדים הנוכחיים – Xeon SP דור שני או מעבדי AMD EPYC.

מעבר למעבדים אחרים – של אפל

אפל הודיעה אתמול רשמית (ומי שעוקב אחר השמועות – כבר שמע זאת לפני יותר מ-8 חודשים) שהם מתחילים תהליך מעבר (Transition) בין מעבדים של אינטל למעבדים שהחברה מפתחת (בניגוד לכל מיני שטויות שנכתבו באתרים שונים, החברה לא מייצרת מעבדים, חברת TSMC מייצרת עבור אפל).

תרשו לי לאמר על כך כמה מילים..

מבחינה טכנית, אפל משתמשת כיום באייפון ובאייפד במעבדים מתכנון שלה, ואותם מעבדים אכן נותנים ביצועים טובים, והם פחות או יותר באתה רמה של מעבדי ה-High End של קוואלקום (סידרה 865 או +865 לדוגמא). הסיבה שאפל מנצחת בבדיקות ביצועים קשורה יותר ל-OS: אי אפשר לבדוק מעבדים של קוואלקום על iOS ואנדרואיד די גרוע באופטימיזציה למעבד – בהשוואה ל-iOS (הסיבה קשורה לכך שאפל צריכה לעשות אופטימיזציה רק למשפחת מעבדים אחת שלהם, בשעה שאנדרואיד צריך לרוץ לא רק על מעבדים של קוואלקום אלא גם של מדיהטק ואחרים, וגוגל לא הולכת לעשות אופטימיזציות כאלו).

לא מעט אנשים יצביעו על כך שבמבחנים כמו Geek Bench המעבדים כמו A12X/A12Z של אפל "נותנים פייט" למעבדים של אינטל. אני בהחלט מאמין לתוצאות, אבל זה לא כל הסיפור.

מעבד טוב צריך לא מעט זכרון Cache בשלבים שונים כמו L1,L2,L3 בשביל לבצע עבודות שדורשות ריצה חוזרת לחלקי קוד שונים. אם נשווה את ה-A12Z של אפל ל-i9-9900 של אינטל, נראה כי ברמת L1, לאפל יש 128K להוראות ו-128K ל-DATA (שזה טוב), לאינטל יש 512K שמחולקים בצורה שונה. כשזה מגיע ל-L2, אפל כוללת 8 מגהבייט (אין פרסום איך החלוקה), ואילו אינטל כוללת 2 מגהבייט שמחולקים ל-256K פר ליבה. כשזה מגיע ל-L3, ל-A12Z אין את זה בכלל, ולאינטל יש 16 מגהבייט (כ-2 מגה פר ליבה), ול-L3 יש חשיבות מכרעת, ואת זה ניתן יהיה לראות בקרוב מבחינה מספרית גם במעבדים החדשים בדור הבא של אינטל ו-AMD.

ה-A12Z (זה המעבד שאפל החליטה לייעד בשלב זה במחשבי הפיתוח למפתחים שמעוניינים להמיר את האפליקציות שלהם לרוץ על מעבדים אלו) הוא מעבד טוב וחזק, אבל הוא חזק לדברים מוגבלים שניתן להריץ על אייפד. קחו לדוגמא את חלק ה-GPU שנמצא במעבד: יש בו 8 ליבות יעודיות ל-GPU. לאינטל, לדוגמא, עם ה-Iris Graphics יש 64 ליבות יעודיות לכך (זה נקרא שם Execution Units). ה-A12Z מציג ביצועים מרשימים על אייפד מבחינת ה-GPU, אבל בסופו של יום, אם אתה רוצה להריץ עבודות מורכבות שירוצו על מק עם מעבד A12Z, ה-GPU של אפל במעבד ה-A12Z לא יספק ביצועים גבוהים כי הוא פשוט לא בנוי לכך, ה-iPadOS של אפל גם כך מגביל פנימית את המערכת בחלוקת משאבים, בהשוואה למק עם iOS.

מי שהסתכל במצגת של אפל, אולי שם לב לכך שבמסגרת הצגת המעבר, לא נאמרה ולו פעם אחת אימרה כלשהי שה-A12Z מהיר יותר בהשוואה למה שאינטל כיום מוכרת לאפל, וזה בדיוק העניין: ה-A12Z רחוק מאוד מכך – ברגע שמתחילים לזרוק כמות עבודות גדולה או עבודה גדולה ומשולבת מאוד על ה-A12Z (ההדגמות אתמול על MAYA פוטושופ וכו' היו הדגמות מאוד סלקטיביות שמשתמשות ב-RAM כ-Cache) ואפל תצטרך לפתח מעבד חדש הרבה הרבה יותר רציני כדי לתת "פייט" למעבדי אינטל שאפל משלבת כיום במחשבים הניידים שלה.

במחשב הדסקטופ של אפל (ה-Mac Pro) – הסיפור אחר. המעבדים של אפל יכולים אולי להתחרות במעבדי הדסקטופ של אינטל במבחנים מסויימים (אלו עד 4 ליבות) אבל כשזה מגיע למעבדים עם 8 ליבות ומעלה, עם יותר זכרונות מטמון L1,L2,L3, עם מעבדי ה-Skylake X הישנים (מלפני 3 שנים) ועד מעבדי ה-Xeon מסידרה 31XX,32XX, ובקרוב ה-33XX – לאפל אין שום דבר שמתקרב לביצועים של המעבדים הנ"ל (ועוד לא הזכרתי את הפתרונות של המתחרים, AMD) ואפל תצטרך להוכיח לעולם ולמשקיעים שהם יכולים להוציא מעבדים שהם הרבה יותר חזקים ממה שהם מוציאים כיום.

אבל הבעיה המרכזית של אפל תהיה יותר קשורה ללקוחות, אותם לקוחות שרכשו בעשרות אלפי דולרים מחשבי מק פרו לעסק, ואפל פתאום מודיעה להם שהחברה הולכת לעבור תוך שנתיים למעבד וארכיטקטורה אחרת, וזאת בשעה שהם השקיעו סכומים גדולים רק בחודשים האחרונים. אפל מדברת על מעבר תוך שנתיים, אבל תוך שנתיים לא יהיה לאפל שום פתרון שיכול להתחרות במעבדי Xeon מ-10 ועד 28 ליבות (ובקרוב פי 2 יותר. משום מה אינטל לא הוציאו את המעבדים החדשים בשבועות האחרונים),תמיכה בכמות מרובה של נתיבי PCIe, תכנון תושבת חדשה למעבד (הפעם אי אפשר פשוט לקחת מאינטל), בכמות גדולה של זכרון ועוד ועוד, ולכן אפל תצטרך להמשיך גם הרבה לאחר השנתיים המתוכננות – לתמוך בפתרונות מבוססי אינטל ולוודא שכל מיני לקוחות לא יחשבו לקפוץ לכיוון ה-Windows.

לסיכום: בסופו של יום, אני בהחלט יכול להבין את המניע של אפל. חיי הסוללה של מעבדי אינטל עדיין נמוכים, גם כשהבעיה היתה ידועה לאינטל יותר מעשור (ואגב, צריכת החשמל במחשבים ניידים מבחינת החלקים "מסביב" דווקא ירדה – אין יותר דיסק מכני, פאנל התצוגה לוקח פחות חשמל) ואפל כבר לא אוהבת להיות תלויה באינטל לגבי פתרונות עיבוד (למרות שלחברת אינטל יש מחלקה שלמה לבניית גרסאות מעבדי Custom), אך יחד עם זאת, אפל צריכה להיות הרבה יותר ברורה כלפי לקוחותיה ולהצהיר כבר עכשיו – למשך כמה זמן היא הולכת לתמוך בפתרונות מבוססי אינטל וכמו כן לדבר על פתרונות המק-פרו ומה אפל הולכת לעשות בנידון.

כמה מילים על המעבדים החדשים לדסקטופ של אינטל

עדכון: בזמן שעבדכם הנאמן כותב פוסט זה, AMD הורידה את מחיר מעבד Ryzen 9 3900X ב-90 דולר (ל-410 דולר), כך שבעצם אם רוכשים את ה-10900K של אינטל, משלמים בערך 100$ יותר ומקבלים 2 ליבות פחות, בהשוואה ל-3900X.

אינטל הכריזה לפני מספר שבועות על סידרת המעבדים החדשים (שם קוד: Ice Lake) לדסקטופ, ואיפשרה רק אתמול להציג מבחני ביצועים. יצרן לוחות אם מסוים נתן לי גישה מרוחקת למכונות לינוקס עם מעבדים אלו וביצעתי מספר בדיקות. אמנם לא חתמתי שום NDA מול אינטל, אבל בשביל הריספקט, לא פרסמתי הרבה פרטים מעבר למה שכבר פורסם על ידי אחרים ברשת.

להלן רשימת המעבדים והמפרט שלהם (קרדיט: אתה יורו גיימר):

כפי שניתן לראות, הפעם אנחנו זוכים לראות במשפחת הדסקטופ מעבד עם 10 ליבות ב-2 גרסאות שונות – ה-Core-i9-10900K ואת ה-Core-i9-10900 כאשר ה-K מציין מעבד לא נעול שניתן לבצע לו Overclock. בשאר המעבדים ניתן לראות כי אינטל הפעם לא חסמה Hyper Threading במעבדים בקצה התחתון, והמהירות עלתה בחלק מהמעבדים (שימו לב שה-i9-Core-10900K יתן מהירות של 5.3 ג'יגהרץ רק לליבה אחת וגם זה רק בתנאים מסויימים (כמו: Thermal Velocity Boost (TVB) מופעל, החום הוא 70 מעלות ומטה ועוד). מבחינת מחירים – אינטל שמה לב שיש לה תחרות ולכן המחירים ירדו בהשוואה למעבדים דור תשיעי ומטה, ואת מעבד מגירסת ה-10 ליבות תוכלו לרכוש במחיר (בחו"ל) שינוע בסביבות ה-530 דולר (המחיר בטבלה זה בהזמנת 1000 חתיכות).

אחד הדברים הראשונים שכדאי לשים אליהם לב, לכל מי שמתעניין במעבד כמו ה-10900K הוא שיש לאינטל מעבד "קרוב משפחה" בשם 10900X. מבחינה טכנית הם "קרובי משפחה" (Ice Lake הוא נגזרת משופרת של Sky Lake) אבל מעבד 10900X לא יפעל על לוחות האם החדשים ש-10900K יפעל ולהיפך. מבחינת ביצועים, ה-10900X קיבל ציון "Dead On Arrival" איך שהוא יצא כמעט מכל אתר סקירות/בחינות מקצועי בהשוואה למה ש-AMD הציעו, ולכן ההמלצה הגורפת היתה לקחת מעבדים אחרים של אינטל או להסתכל על ההצעות של AMD.

למי אינטל מייעדת את המעבדים החדשים? בהחלט לא לאלו שרכשו את המעבדים מדור תשיעי. השיפורים בביצועים הם יחסית מינוריים (ה-9900KS יתן לכם 5.0 ג'יגהרץ על כל הליבות ו-5.1 על ליבה אחת), ואין אפשרות לשדרג ממחשבים עם מעבדים דור תשיעי ומטה, יש להחליף לוח אם ואם רוכשים את גירסת ה-10900K, ודאו כי ספק הכח שלכם הוא לפחות עם אספקה של 700 וואט (אם יש GPU מכובד בתוך המחשב), הואיל וכשמעבד ה-10900K מתאמץ, הוא צורך חשמל כאילו אין מחר (זה נע בין 180 ל-260 וואט. אל תאמינו אף פעם למספר ה-TDP המופיע במפרט).

אינטל מייעדת את המעבדים הללו למי שרכש מעבדים כמו Coffee Lake משנת 2017 ואחורה. כשמשווים את הביצועים של המעבדים החדשים למעבד כמו i7-7700K, יש בהחלט שיפור מרשים בכל פרמטר אפשרי, אבל מצד שני – אם אתה הולך להחליף חצי מחשב בתהליך השדרוג, הייתי ממליץ גם להסתכל על המתחרים ממול.

המעבדים החדשים של אינטל גורמים לכל הסוקרים לחזור על אותם מסקנות שוב ושוב כמו תוכי: אם אתה גיימר שמחפש את כמות הפריימים המקסימלית שניתן להוציא ממשחקים פופולריים רבים, אז אין ספק – המעבדים של אינטל הם בשבילך. אם אתה מריץ אפליקציות פרודוקטיביות שרצות כ-Single Threaded ואתה מחפש את המקסימום ביצועים, אז גם כאן – המעבדים החדשים יתאימו לך.

אם לעומת זאת אתה רוצה לשדרג את המחשב ואתה משתמש בו לצרכי פיתוח, יצירת/עריכת תכנים, ופה ושם קצת משחקים – הפתרונות מבוססי AMD יתאימו לך יותר מבחינת ביצועים, צריכת חשמל, מחיר נמוך יותר וכו'. עובדה פשוטה: במחיר שאינטל מבקשת עבור 10900K עם 10 ליבות, אתה יכול לקנות את Ryzen 9 3900X עם 12 ליבות וישאר לך עודף (מבחינת רכישת מעבד. בכל מקרה תצטרך לרכוש לוח אם וגם כאן ההצעות שמבוססות על שבב B450 של AMD – זולות יותר)

בכל הקשור למעבדים החדשים עם 6 ליבות (10600/10500 עם או בלי K) המבחנים המשווים מול Ryzen 5 3600X מראים משהו מעניין: אינטל עדיין מובילה בכל הקשור לביצועים של משחקים, אבל דווקא בקטגוריית אפליקציות Single Threaded, הביצועים של 3600X יותר גבוהים, ושוב – במחיר של 10600K שמגיע עם 6 ליבות, אפשר לרכוש את ה-Ryzen 7 3700X עם 8 ליבות וישאר לך עודף.

וכאן אנחנו מגיעים לנקודה שאותי היא הכי מתמיהה: היכן ההנהלה באינטל (יש שם מהנדסים סופר מוכשרים שיש לי המון הערכה אליהם)? מ-Coffee Lake שיצא ב-2017 ועד Ice Lake שרשמית מתחיל להימכר הבוקר, השיפורים והשינויים בין הדורות הם מינוריים. עדיין יצור ב-14 ננומטר +++++, עדיין PCIe דור 3 (מי שקונה לוח אם חדש עבור המעבדים החדשים, יקבל לוח אם עם חלק מהתושבות שהם PCIe דור רביעי, אבל זה לא מופעל כי .. באינטל החליטו לא להפעיל ולחכות עם זה למעבד הבא). גם בתחום ה-HEDT (כלומר High End Desktop) עם Sky Lake X – אינטל כבר עושה "סיבוב שלישי" שכל ההבדל בין הדורות – זה עוד 100 או 200 מגהרץ מהירות, ובדור האחרון הם חתכו את המחיר בחצי – בגלל AMD (אינטל כמובן לא מודים בכך). אינטל יכלה לדוגמא להכליל טכנולוגיות שונות במעבדים או ב-Chipset כמו Thunderbolt או תמיכת DCPMM (שלא קיימת, אגב, גם בקצה הכי גבוה של מעבדי אינטל, גם לא במעבדים לתחנות עבודה) – אבל בשביל מה להתאמץ….

לסיכום: גם הפעם, בדור החדש של המעבדים, השיפורים הם מינוריים בהשוואה לדור תשיעי. יש מעבד עם 10 ליבות, אבל אם כל מה שרצית זה מעבד של אינטל עם הרבה ליבות, אינטל ממזמן מציעה את מעבדי ה-Sky Lake X לדסקטופ או מעבדי Xeon W לתחנות עבודה. לאינטל דווקא יש רעיונות ויש טכנולוגיות חדשות, אבל הן עדיין לא ממומשות בצורה טובה במעבדים החדשים, הן בדסקטופ והן בתחנת עבודה (רמז: הרצת קוד AVX 512 תמורת הנחתת ביצועי המעבד בחצי?). כולי תקווה שבאינטל יתחילו להתעורר ולהוציא מעבדים קצת יותר מרשימים…

קצת על מעבדי ה-Ryzen 4000G וחישוב מחירי מחשבים

שוק המעבדים למחשבים נייחים וניידים מחולק לסגמנטים ורבים ושונים, בין אם מדובר במחשבי דסקטופ ב-Enterprise, מחשבים נייחים לשוק הביתי, שוק בתי הספר, שוק מחשבים ניידים, שוק HTPC (שהולך ונכחד לטובת פתרונות שנותנים את הכל בעשירית המחיר) ועוד ועוד.

סגמנט גדול הוא שוק ה-OEM במקומות גיאוגרפיים גדולים, בהם כל סנט שאפשר לחתוך – נחתך. מדובר במקומות כמו הודו, חלק מ-סין, אפריקה, דרום אמריקה וכו'. במקומות אלו, יצרני המחשב המקומיים קובעים עבור יצרני הלוחות איזה פורטים ישארו או יעופו, ובמקרים רבים מדובר בהחלטות של סנטים בודדים, לדוגמא: להשאיר HDMI, להעיף DVI – זה חוסך 3 סנט בעלות הלוח (להעיף HDMI יחסוך עוד יותר אולם רוב המסכים הזולים כיום יוצאים עם כניסות DP ו-HDMI או VGA במקום DP) ומכיוון שיצרני מחשב אלו רוכשים עשרות אלפי לוחות אם מיצרני הלוחות, אף אחד לא מתווכח.

בדיוק באותם שווקים זולים ובסגמנטים הקשורים למחשבים אישיים היתה לאינטל עד לאחרונה עדיפות מוחצת. מדוע? חוץ מהסיבה הברורה של MDF שבהחלט מתקבל בברכה ע"י מחלקות שיווק שונות של יצרני מחשבים, הסיבה השניה היתה שאינטל כורכת מעבד גרפי בתוך ה-CPU מה שחוסך הרבה כספים מבחינת רכישת חלקי מחשב עבור יצרני המחשבים. נכון, זה לא ממש יתן ביצועים גבוהים למשחקים, אבל בשווקים הללו התחרות היא To the Bottom: אם אני יכול להוריד את המחיר שלי ב-10$ בהשוואה למתחרה שלי ובכך לזכות בחוזה מכירות כמות גדולה של מחשבים לארגון גדול, לרשת מחשבים וכו' – אז למה לא?

ל-AMD היו תמיד פתרונות מתחרים: מעבדים הכוללים עיבוד גרפי. אלו נקראים מעבדי APU ובדרך כלל המחירים שלהם היו נמוכים בהשוואה למתחרים והם נמכרו בכמות קטנה בשוק החופשי, אבל בהשוואה לאינטל – AMD תפסה אחוזים בודדים.

ואז לפני קצת יותר משנתיים החלו בעיות היצור של אינטל ובמעבר מ-14 ננומטרים וכתוצאה מכך קיבולת היצור של אינטל ירדה בצורה משמעותית ואינטל קיבלה החלטה שמעבדים ייוצרו לפי סולם רווח, כלומר מעבדי Xeon יקבלו עדיפות גבוהה יותר ומעבדי דסקטופ (i7, i5, i3 ומטה) יקבלו עדיפות הרבה יותר נמוכה. כך נוצר מצב שיצרניות גדולות כמו HP, Dell, Lenovo ואחרים מצאו את עצמם בסיטואציות מוזרות: לקוחות רוצים לקנות מהם מחשבי דסקטופ, אבל אותן יצרניות לא יכולות למכור כי אינטל לא יכלה לייצר כמות מספקת של מעבדים. בחברת HP נשלחו הודעות בהולות למנהלי המכירות באזורים גיאוגרפיים שונים – להתחיל "להמליץ בחום" על פתרונות של החברה עם מעבדי AMD (הן לדסקטופ והן לשרתים), וחברות כמו לנובו ואפילו Dell החלו "לגשש" אצל היצרן הטקסני (AMD) לגבי מרכולתו ולגבי פתרונות עתידיים.

התשובה של AMD לסיטואציה תוצג בקרוב לציבור הרחב תחת השם: 4XXXG. החברה תציג 12 מעבדי APU חדשים שמבוססים על ארכיטקטורת הדור הנוכחי (Zen 2) אשר יכללו יחידה גרפית מובנית במעבד ואשר תהיה מהירה בצורה משמעותית בהשוואה למה שאינטל מציעים במעבדיהם. מעבדים אלו יוצעו עם כמות ליבות משתנה (בין 4 ל-8) ועם מעטפת צריכת חשמל (TDP) של 64 וואט ו-35 וואט (שיתחרו בדגמי T של אינטל).

היתרון במעבדים אלו, כמו במעבדים למחשבים ניידים – כרוך במחיר ובמה אפשר לקבל תמורת מחיר נמוך: לראשונה, צרכנים יוכלו לקבל עד 8 ליבות עם GPU מכובד (זה לא מתחרה בשום מצב בכרטיסי ה-GPU של AMD או nvidia) או כפי שאמר הסלוגן של אטארי ז"ל: Power without the price. המחירים של AMD עדיין לא פורסמו (כל הנתונים יפורסמו בקרוב) אבל רק לשם השוואה: אינטל מבקשת על מעבד עם 8 ליבות בין 340-400 דולר (המחירים שמפורסמים באתרים שונים הם מחירי K, כלומר מחירים של 1000 חתיכות).

האם לך כצרכן יהיה כדאי לרכוש אחד מהמעבדים הללו? אם אתה מסתכל רק על ההצעות של AMD – זה תלוי. אם 1000-2000 שקל בשביל GPU טוב זו תוספת שאין באפשרותך לשלם עליה, אז כן, לך על ה-4XXXG עם כמות הליבות שתרצה. לעומת זאת, אם אתה חושב לבנות מחשב עם GPU יעודי ועם עוד כרטיסים נוספים במחשב בהמשך – לך על מעבדי ה-Ryzen הרגילים. אם לעומת זאת, מהירות הליבות פר ליבה היא הדבר הכי חשוב לך (או שאתה מריץ פוטושופ רוב הזמן) – לך על המעבדים של אינטל בסידרה 10 החדשה (פרטים על ביצועי המעבדים של אינטל בסידרה החדשה יפורסמו עד יום ה' או ו' השבוע).

השוק משתנה: מעבדי ה-Ryzen Mobile, המחיר והתחרות

אינטל שולטת בשוק המחשבים הניידים שנים רבות. עד לפני בערך כ-3 שנים, אפשרויות הבחירה שלך נעו בין מחשב זול עם 2 ליבות (או 4 ליבות במהירות נמוכה) או 4 ליבות במהירות רצינית ובמחיר שמתחיל ב-1200$ ומעלה. היית יכול למצוא מחשבים ניידים עם שש ליבות – אבל המחירים של אותם מחשבים ניידים התחיל בערך ב-2000$ ומעלה לתצורות הבסיסיות, ובקיצור – אם רצית מחשב עם כח עיבוד רציני, היית צריך לשלם כמה אלפי דולרים. לכל השאר – אינטל יצרה מעבדים שננעלו במהירויות נמוכות יותר, מה שכמובן לא הצריך מצד היצרן פתרון קירור רציני.

מי שעוקב אחרי סדרות המעבדים למחשבים הניידים של אינטל, יראה כי אינטל בדור התשיעי הוציאה מעבדים למחשבים ניידים עם 8 ליבות, אבל אלו היו מעבדים מסידרה H, כלומר מעבדים שצורכים לא מעט חשמל (בהתחשב בכך שמעבד זה מיוחד למחשב נייד ולא נייח) והם אינם מתאימים להרצה על מחשבים קלי משקל ודקים. בדור העשירי והאחרון שאינטל הוציאה לפני שבועות ספורים, כבר ישנם מעבדי i7 עם 8 ליבות למחשבים ניידים דקים, אבל המחיר גם כאן – מאוד גבוה, בד"כ מתחיל ב-1700$ ומעלה.

אינטל יכלה כמובן להוריד את המחירים ולהציע גם לסקטור ה-Value מעבדים עם יותר מ-4 ליבות ועם ביצועים יותר גבוהים, אבל אינטל החליטה שלא. למה? הסיבה לא תשנה. לא היתה תחרות, אז אינטל יכולה לעשות מה שבא לה.

וכאן נכנסה לשוק AMD בשנתיים האחרונות.

הדור הקודם של מעבדי Ryzen למחשבים ניידים היה זול, איך הביצועים לא היו כה מרשימים, והמבחנים הראו שמעבדים אלו נמצאים אי שם באמצע מבחינת כח CPU ובמקום גבוה מבחינת GPU (בהשוואה ל-GPU הפנימי של מעבדי אינטל). AMD לא דרשה מחיר גבוה, ויצרני המחשבים הניידים יצרו מספר דגמים מצומצם עם מעבדים אלו והם מצאו בדרך כלל פופולריות במחשבים הניידים הזולים.

https://i0.wp.com/pcinfo.co.il/wp-content/uploads/2020/03/AMD-Ryzen-4000-Renoir-Specs-1.jpg?w=840&ssl=1

הדברים החלו להשתנות כש-AMD הוציאו את משפחת המעבדים הניידים (שם קוד: רנואר). בדיקות ביצועים מאתרים ומגזינים מקצועיים שונים הראו כי המעבדים החדשים מתחרים בצורה חזקה מאוד ומביסים ברוב המקרים הן את המעבדים הניידים מדור 9 ומדור 10 של אינטל (חלק מהמבחנים עדיין לא פורסמו והם יפורסמו במהלך חודש יוני – בכל הקשור למעבדים עם צריכת מעטפת של 45 וואט) והמחירים ליצרנים – זולים בצורה מאוד משמעותית בהשוואה למה שאינטל מבקשת כיום. AMD גם הוציאה סידרת מעבדי Ryzen Mobile Pro הכוללים ניהול מרוכז עבור ארגונים הדורשים זאת (משהו זהה ל-vPro של אינטל) ולקינוח – AMD יכריזו בחודש הבא על מעבדי APU (מעבדים הכוללים יחידת GPU קטנה) שתתחרה במעבדים זולים של אינטל – עד 8 ליבות (עדיין לא ניתן להרבות בפרטים, הם יפורסמו רשמית כבר בקרוב).

התוצאה? בחודשים האחרונים צרכנים מגלים כי גם במחשבים ניידים זולים (600-800$) הם יכולים למצוא דגמים עם 6 או 8 ליבות ועם ביצועים חזקים, דבר שלא נשמע כמוהו בעבר, והמכירות – בהתאם. חברת Lenovo לדוגמא יצאה עם ה-IdeaPad סדרות 3 ו-5 עם מספר דגמים, חלק מהם עם מעבדי Ryzen החדשים של AMD וחלק מהם עם מעבדים דור 10 למחשבים ניידים של אינטל. כשמחפשים לרכוש את הדגמים עם מעבדי AMD, מוצאים כמעט בכל מקום כי המלאי אזל, ומה שזמין לרכישה – הם הדגמים עם מעבדי אינטל. גם חברת ASUS וגם חברת Acer דיווחה על כך. החברות שמו בהחלט לב לכך ו-Lenovo לדוגמא כבר מוציאה החודש מחשבים ניידים מסידרת Legion עם מעבדי Ryzen החדשים כאשר רק בחודש ינואר אפילו לא היתה תוכנית לתכנן מחשב נייד כזה.

כתוצאה מהסיטואציה החדשה, דברים אחרים מקבלים יותר תשומת לב ברכישה. אתה יכול למצוא מחשב נייד זול עם 6 או 8 ליבות במחיר של 600-800$, אבל לא מומלץ לרכוש את המחשבים הללו רק בגלל המעבדים! כדאי לבדוק את המקלדות, את ה-Track Pad והכי חשוב – איכות מסך ובהירות, ועדיף שיהיה כמה שיותר זכרון, מכיוון שבמחירים אלו, לא ניתן להרחיב את הזכרון במחשבים ניידים אלו.

לסיכום: הגענו למצב חדש, שבו תמורת כמה מאות דולרים אפשר לרכוש מחשב נייד עם כח עיבוד כזה חזק, שרק לפני שנים ספורות היינו צריכים לשלם $2000 ומעלה כדי לקבל את אותו כח עיבוד, ועתה, תודות לתחרות – לא צריך לשלם כל כך הרבה על פתרונות כאלו.

גישות SaaS/PaaS והגישה ההיברידית

כמעט בכל חברה יתקיים מצב בו החברה תחפש תוכנה שתבצע שרות X או שתתן שרותי פלטפורמה Y במקום "להמציא את הגלגל" מחדש בכל פעם. אם לדוגמא העסק מעוניין לשלוח איחולי חג שמח לכל הלקוחות, ניתן יכול לשכור שרותי Saas של חברה כמו Mailchimp לדוגמא ובתמורה תקבלו ממשק קל לשימוש וסיכוי מאוד גדול שכל לקוחות העסק יקבלו את המייל. מצד שני אפשר בעזרת מעט סקריפטולוגיה ושימוש באמזון SES לבצע את אותו דבר אך במחיר זול בהרבה (יכול לחסוך לא מעט אם לחברה יש מאות אלפי או מיליוני לקוחות לדוגמא). אפשר כמובן לקחת גם את האופציה החינמית ולהקים שרת מייל או להשתמש בשרת מייל מקומי כדי לשלוח את הררי האימיילים, אבל במקרים כאלו הסיכוי שהמייל יתקבל אצל כל הלקוחות הוא די קלוש – אם לא משקיעים בכל עניין של Whitelist, RBL, דבר שלוקח לא מעט זמן ומשאבים.

יותר ויותר חברות תוכנה מקצצות בהשקעה של כתיבת תוכנות והפצת כ-Stand alone המיועדות לרוץ על שרתים בתשתית מקומית של הלקוח, וזאת ממספר סיבות, הנה 2 העיקריות:

  1. עלויות תמיכה – ככל שתוכנה נמכרת כ-Stand Alone, עלות התמיכה ליצרן התוכנה תהיה גבוהה, מכיוון שיש לא מעט סיכוי שהתוכנה לא תעבוד בסביבות או מכונות שונות, הרשאות שגויות, חוסר ידע טכני של הלקוח ועוד. ככל שהתומכים הטכניים יהיו עסוקים יותר ויותר שעות בפתרון בעיות של לקוח ספציפי זה או אחר, הרווח של יצרן התוכנה ירד. אחרי הכל, אף אחד לא משלם ליצרן התוכנה אם מחלקת התמיכה השקיעה 10 שעות בפתרון בעיה אצל לקוח יחיד לדוגמא.
  2. פיראטיות – בהרבה מאוד חברות הצוות מוריד אפליקציה או פלטפורמות מסויימות למטרת Trial ומיד לאחר מכן הם מחפשים כל מיני כלים ודרכים כדי לפרוץ את ה-Trial. הרווח של יצרן התוכנה ממקרים כאלו – אפס.

מהרגע שיצרן התוכנה מציע את מוצריו כ-PaaS או SaaS, הדברים נהיים יותר קלים עבורו:

  1. אין פיראטיות
  2. עלויות התמיכה מצטמצמות משמעותית הואיל והכל רץ בתשתית וירטואלית של יצרן התוכנה בעננים שונים ומקרי התמיכה נהיים יותר ויותר פשוטים כי ניתן לשחזר את התקלות במחלקת התמיכה של יצרן התוכנה.
  3. תזרים הכנסות חודשי/שנתי רציף מהלקוחות.
  4. קצב הפיתוח מואץ יותר, באגים ופונקציונאליות חדשה נכנסת ל-Life Cycle של השרות במהירות גבוהה יותר ובכך דרישות לדברים חדשים שלקוחות מבקשים – נענים במהירות גבוהה יותר.
  5. אין צורך בתמיכת Legacy הואיל וכולם עובדים על גירסה אחת או שתי גרסאות.

אך יש גם חסרונות:

  1. עלויות תשתית הרבה יותר גבוהות בענן ציבורי. בניגוד למכירת תוכנת Stand Alone שלא מתחברת החוצה, כאן פתרון ה-Saas/PaaS יצטרך חיבור קבוע למשאבים שונים של יצרן התוכנה.
  2. אבטחת המידע צריכה להיות הרבה יותר רצינית בהשוואה למקרים של תשתית סגורה החוצה. מהרגע שמתגלה אצל יצרן כזה דליפת מידע, יש סיכוי לא רע שחלק מהלקוחות יעדיפו לנטוש ולחפש פתרון מתחרה.

אלו, פחות או יותר הסיבות שבגללן חברות תוכנה יעדיפו להציע שרותי PaaS/SaaS.

אחת הנקודות שבמקרים רבים אינני רואה התייחסות מצד אותן חברות – היא למקרים שהלקוח אינו מוכן "לעבור All In", כלומר הלקוח לא מוכן שכל ה-DATA שלו ישב בתשתית של יצרנית תוכנה ולו (ללקוח) לא תהיה שליטה על הנתונים מבחינת אבטחת מידע או בכלל מהבחינה העקרונית שזה ישב בתשתית של חברה אחרת שאין לו מושג ירוק לגביה. זו לדוגמא אחת הסיבות שחברות יעדיפו לוותר על פתרון SaaS/PaaS שמוצע רק על ענן ובמקומו הם יעדיפו פתרון שרץ מההתחלה ועד הסוף על תשתית מקומית (On Prem).

מה שלעניות דעתי אותן יצרניות תוכנה PaaS/SaaS צריכות להציע – הן את האפשרויות הבאות (אחת או יותר), משהו שהוא יותר מעין "Hybrid":

  1. ה-DATA של הלקוח יכול להיות מאוחסן On Prem עם Agent שמתחבר לענן. לשרות תהיה גישה עם הרשאות מאוד מוגבלות
  2. אם ללקוח יש חשבון בענן ציבורי כלשהו, הלקוח יוכל להגדיר אחסון אובייקטים כלשהו (S3 לדוגמא) עם הרשאות מוגבלות שינתנו בעת הפעלה ראשונית של שרות ה-SaaS/PaaS והרשאות אלו יהיו תחומים למשאבים מסויימים בלבד (נניח Bucket כלשהו)
  3. הלקוח יצטרך לבחור כבר בהתחלת שימוש ה-PaaS/SaaS את ה-Passphrase שלו (ובלבד שיהיה מורכב) ועם אותו Passphrase (ואולי יחד עם עוד מספר נתונים) יוצפן ה-DATA של הלקוח כך שגם ליצרן התוכנה לא תהיה גישה לנתונים. (אפשר כמובן במקום Passphrase יהיה אפשר להשתמש במפתחות פרטי/ציבורי יחד עם Passphrase)

לסיכום: מצד אחד יותר ויותר חברות תוכנה עוברות להציע את מרכולתן בתצורות של PaaS/SaaS, אולם במקרים רבים לחברות וארגונים גדולים לא קל לעבור מבחינה פסיכולוגית למצב שכל הנתונים הקנייניים/פרטיים ישבו באיזה DB/אחסון ענני של יצרן תוכנה כלשהי מבלי שללקוח יש מושג מה יצרן התוכנה עושה/יעשה עם הנתונים, שלא לדבר על סיטואציה שלא מעט ארגונים לא רוצים/לא יכולים לבחור בפתרונות כאלו עקב רגולציה או אבטחת מידע. אותן חברות צריכות להציע משהו שהוא "באמצע" – התשתית תרוץ בענן, אבל המידע ישב מקומית בתשתית של הלקוח או שהוא ישב בענן בצורה כזו שללקוח תהיה שליטה מי יכול לצפות/לגשת לנתונים (גם אם מדובר בחסימת הנתונים מפני חברת התוכנה).

הולכים לרכוש דיסקים קשיחים? שימו לב!

כל מי שנמצא בסקטור ההיי-טק בתחום ה-IT, מודע בוודאי לכך שהיום הדיסקים שנמכרים הכי הרבה – הם דיסקים אלקטרוניים (SSD). אתה מקבל מהירות גבוהה מאוד של קריאה/כתיבה, הבקרים באותם דיסקים שופרו כך שתוכל לקבל אורך חיים מכובד לאותו SSD. מהצד השני, יצרניות גדולות של דיסקים מכניים מנסים למכור את הדיסקים שלהם לצרכי Capacity. אחרי הכל – שום SSD לא נותן מחיר משתלם מבחינת כמות אחסון כמו דיסק קשיח מכני.

יצרניות הדיסקים הקשיחים מנסים כל הזמן להגדיל את כמות האחסון פר דיסק ואחת השיטות שכל יצרני הדיסקים הטמיעו נקראת SMR או Shingled Magnetic Recording. בשיטה זו, כשכותבים נתונים על הדיסק ובאותו אזור שבו הדיסק רוצה לכתוב, כבר קיימים נתונים – אז הבקר של הדיסק יורה למערכת לקרוא את הנתונים הקיימים בדיסק, לצרף אותם (בזכרון המכונה) לנתונים שצריכים להיכתב – ולכתוב את הכל מחדש. כל התהליך הזה לא קיים בדיסקים קשיחים רגילים שמשתמשים בשיטת קריאה/כתיבה שנקראת PMR ולפיכך דיסקים קשיחים שעובדים בשיטת SMR מתאימים יותר לצרכי גיבוי ארכיבאי, הווה אומר: אם אתה רוצה לגבות כמות גדולה של מידע בצורה חד פעמית ולהכניס לאחר מכן את הדיסק לארון או כספת או לשלוח את הדיסק Off Site – אז דיסקים כאלו מעולים לכך. בקיצור – אלו דיסקים שמתאימים כ-WORM.

מכאן נעבור לשוק ה-NAS, השוק בו אותן חברות בדרך כלל מוכרות ללקוחות וליצרני קופסאות NAS דיסקים קשיחים בגדלים של 2-8 טרהבייט. חברות כמו Western Digital גם מייצרת 2 משפחות דיסקים ל-NAS, האחת היא סידרת RED והשניה היא סידרת Red Pro, כאשר ה-Red Pro יותר מתאים ל-Enterprise הואיל והדיסקים שם מגיעים בחיבור SAS ולא SATA. יצרנים אחרים גם יעדו דגמים ומשפחות שונים של דיסקים לשוק ה-NAS. אחרי הכל זהו שוק שגודל וסקטור ה-SMB קונה המון ממנו מחברות כמו Synology או QNAP.

וכאן הגיע תחמון חדש מצד יצרני הדיסקים.

כפי שציינתי לעיל, דיסק מבוסס SMR מתאים לצרכים של קריאה מרובה אך אינו מתאים לצרכים של כתיבה מרובה (גם לא כתיבה של 50% ומטה!) ולכן אם אתם רוצים לרכוש דיסקים לשרתים שלכם (מצד ג') או דיסקים ל-NAS שלכם, חשוב יהיה לוודא שהדיסקים עובדים בשיטה כמו PMR, CMR או שיטות מתקדמות אחרות (יש שיטות כאלו אולם עדיין לא יצאו לשוק המסחרי דיסקים המבוססים בשיטות החדשות) ולא SMR.

אז יצרני הדיסקים החליטו לעשות משהו פשוט: מכיוון שהם בטוחים ש-NAS זה רק לשוק ה-SOHO/SMB שלא מצריך כתיבה מרובה, אפשר לדחוף להם דיסקים קשיחים שהם SMR מבלי לגלות ללקוח שהדיסקים הם SMR. מדוע? כי לאותם לקוחות יש "פעילות מועטה".

חמור מכך: חברות כמו Western Digital טענה כי רק הדיסקים בגודל 20 טרהבייט שלהם עובד ב-SMR, אבל כפי שתוכלו לראות כאן וכאן, הם לא בדיוק אומרים את האמת – וגרוע מכך, הם מסרבים לענות כששואלים אותם מהי שיטת הקריאה/כתיבה של דגם ספציפי. אם יש לכם דיסקים של WD, אז אם אותם דיסקים מסתיימים ב-EFRX אז אלו דיסקים שעובדים PMR/CMR ואין שום בעיה לעבוד איתם, הם מעולים. אם לעומת זאת הדגם שלהם מסתיים ב- EFAX – אז כדאי להחליף אותם.

מאז שהתפוצצה הפרשה הזו – גם Seagate וגם טושיבה הודו שגם הם משתמשים בטריק הזה. כאן אפשר לראות לגבי הדיסקים של Seagate וכאן אפשר לראות לגבי הדיסקים של טושיבה.

לכן – אם קנית או שאתה מתכנן לרכוש דיסקים קשיחים מכניים – בקש בהצעה את שמות הדגמים ובדוק אותם לפי הלינקים לעיל. אני לא יודע לגבי ישראל, אבל יש לי תחושה שבארה"ב זה הולך להגיע לבית המשפט.