יש לכם דונגל 4G סלולרי? חושבים לרכוש אחד? אז בקליפ הבא שהכנתי, אני מציג שני דרכים שלא כולם מכירים, המאפשרים לקבל יותר מהדונגל.
צפיה נעימה.
טיפים ומידע על טכנולוגיות שונות
יש לכם דונגל 4G סלולרי? חושבים לרכוש אחד? אז בקליפ הבא שהכנתי, אני מציג שני דרכים שלא כולם מכירים, המאפשרים לקבל יותר מהדונגל.
צפיה נעימה.
שמענו לאחרונה את מה שהתרחש אצל חברת שירביט (הפריצה שאירעה לתשתית של חברת הביטוח. כיום נודע שהפורצים החליטו לחסוך לעצמם את כל עניין הצפנת המידע עם תוכנת כופרה, והם (הפורצים) החליטו ישר ללכת לסחיטה: 50 ביטקויינים או שהם מפיצים/מוכרים את המידע).
אפשר לצקצק בלשון ואפשר לתהות על ההתנהלות של חברת שירביט בכל הנוגע לאבטחת מידע והגנה על התכנים, אך לפחות ממספר שיחות עם חברים ועמיתים – לא מעט ארגונים גדולים חשופים לא פחות ממה ששירביט היו חשופים לפריצות, ולצערי הרב, עדיין התפיסה של "יש לנו חומת אש, WAF, IPS/IDS, אז אנחנו מוגנים" – שולטת באותם ארגונים.
המציאות פשוטה: גם אם תקים "הר" של Appliances לצרכי אבטחת מידע בכדי להגן על חדירה מבחוץ, הפורצים יכולים לעקוף את כל ההגנות הללו עם פעילות Phishing וכניסה למערכת עם פרטים גנובים. חשוב לזכור: הנקודה הכי חלשה ברוב הארגונים – היא המשתמשים, ולא יעזרו חידודי נהלים לא לפתוח לינקים, לא להוריד/להריץ קבצים במייל וכו' מהסיבה הפשוטה ביותר: אם משתמש קיבל מייל Phishing והוא הזין בו פרטי חיבור אמיתיים, ברוב המקרים הוא לא ירוץ למחלקת IT או אבט"מ לספר על כך. אחרי הכל, מדוע לו לחטוף על הראש? עדיף להפעיל ראש קטן ולהתעלם מכך.
הנקודה הכי חשובה בכל הסתכלות על אבטחת מידע היא Zero Trust. לא לתת שום Trust בין אם מדובר בתקשורת מבחוץ פנימה או בין שרתים או בין מכונות דסקטופ לשרתים. אחרי הכל, אם מאן דהוא הצליח להשיג פרטי גישת VPN למערכת שלכם, מהרגע שהוא מתחבר, הוא נמצא בתוך התשתית של החברה, גם אם יש לו הרשאות מוגבלות (גם עם הרשאות מוגבלות אפשר ליצור נזקים גדולים). יקח לחברה זמן להבין שהפורץ משתמש בפרטי גישת VPN שנגנבו בפעולות Phishing ממשתמש לגטימי, ומאותו רגע שהפורץ מחובר, גרימת הנזק היא פנימית, ה-Firewall וה-WAF שלך לא עוזרים במאומה באותו זמן – וכאן, כדאי לזכור, פורץ חכם לא יחפש לגרום מיידית נזק, אלא יחפש בתשתית נקודות חולשה או תשתית "צדדית" שעליה הוא יכול להתקין את ה-Payload ורק לאחר מספר ימים להפעיל זאת ולהתחיל לגרום נזק/להצפין תוכן או להעביר תכנים.
ישנם דברים שניתן לעשות בעלות לא גבוהה בתשתית החברה. חלק מהרעיונות ישמעו אולי כ-לא קונבנציונאליים בארגונים מסויימים, אבל אני עדיין ממליץ לחשוב עליהן ולא לפסול אותן מראש:
לסיכום: לפעמים יש צורך בשינוי הגישה והמחשבה על אבטחת התשתית והארגון. הגנה "מבחוץ" כבר לא נותנת כיום פתרונות לנסיונות הפישינג והפריצה, וברוב המקרים הפריצה בכלל תגיע מנסיון פישינג למשתמש וכשהפורץ ישתמש בהרשאות המשתמש מתוך הארגון, או אז תחל ה"חגיגה" ולכן אולי כדאי לחשוב על הדברים בצורה מעט שונה.
במהלך השנים, יצא לי, כיועץ עצמאי, להשתתף בפגישות בחברות שונות כמראיין באספקט היותר "גיקי" כשמראיינים נציג של חברה לגבי מוצר או לגבי מועמד למשרה טכנית חשובה. בדרך כלל הציפיה ממני במהלך הישיבה, היא להיכנס טיפה לעומק למושגים הטכניים או לשאול שאלה קצרה טכנית שתבדוק את הידע של הנציג לגבי המוצר או המועמד לגבי הידע שברשותו. הנציגים או המועמדים המועדפים עליי הם אלו שיודעים לספר מה הם עשו, באלו אתגרים הם עמדו, והכי חשוב – כמה שפחות ריכולים על המתחרים. יש כאלו, לפעמים, שמגיעים, רק כדי ללכלך על אחרים כמה הם גרועים וכמה הם עצמם הרבה יותר טובים (למרות שהם לא ממש מצליחים להוכיח בראיון במה הם יותר טובים)
בימים האחרונים נראה כי באינטל החליטו ללכת בדיוק בשיטה של הלכלוך.
תזכורת קצרה: בשנה שעברה הכריזה AMD על סידרת מעבדי Ryzen 4000 למחשבים ניידים בדרגות שונות. למעבדים הללו לא היה את כל ה"בלינג בלינג" שאינטל כה טורחת לציין (כמו AVX512) אבל מה שכן – מעבדים אלו נתנו ביצועים טובים, הן בחיבור לחשמל והן מהסוללה, כולל אורך חיי סוללה טובים, והסוקרים היללו את המעבדים וחלק גדול מהמחשבים הניידים הללו. הפתרון של אינטל באותו זמן למעבדים הללו – היה פתרון שקיבל ביצועים נמוכים יותר כמעט בכל מבחן סטנדרטי. נוסיף את ההתלהבות הן של היצרנים והן של הרוכשים, ונגלה כי AMD הצליחה לכבוש נתח שוק לא קטן משוק המחשבים הניידים תוך מספר חודשים, וזה אף הגיע למצב שיצרניות יצרו דגמים חדשים שכלל לא תוכננו מראש – כדי לעמוד בדרישות שהשוק פתאום הציב.
לפני מספר חודשים הציגה אינטל את מעבדי ה-Tiger Lake שלהם למחשבים נייידים (ליתר דיוק: הציגו רק חלק, את החלק השני של מעבדים עם 8 ליבות החברה לא הציגה עד היום, משום מה). מבחינה טכנית, המעבדים הללו הם מעבדים די טובים והיה צפוי כי אינטל תתרכז בהצגת יכולות ויתרונות מעבדים אלו בהשוואה למעבדים למחשבים ניידים מדור קודם של החברה … אבל זה לא קרה. במקום זה, במשך שעה וחצי הרצו הנציגים על החסרונות של מעבדי Ryzen במקום להשקיע את הזמן בהצגת היתרונות של מעבדי החברה. בנוסף, אינטל הצהירו כי מבחני ביצועים סטנדרטיים זה דבר פאסה ואילו מבחנים "אמיתיים" – הם הם הדבר… כמו להמיר קובץ PPT ל-PDF. אתם עושים את זה 20 פעם ביום, לא??
התקשורת עשתה מה שהיא אוהבת לעשות במקרים כאלו: רובם פשוט התעלמו מההרצאה והלכו לבחון ולפרסם תוצאות סקירות על מעבדים אלו, ובחלק מהמקרים הפרסומים היו מוגבלים מראש, כאשר אינטל הכתיבה לסוקרים כי יש לבחון את המחשבים הניידים עם המעבדים החדשים רק כשהם מחוברים לחשמל, ואין לציין כי המעבדים החדשים צורכים בממוצע פי 2 חשמל בהשוואה למעבדי ה-Ryzen 4000U של AMD. גם איסורים אלו במהלך הזמן נעקפו והראו שבסופו של דבר, וגם כאן, ברוב המקרים הפתרונות של AMD – עדיין מובילים, במיוחד שאתה צריך עבודה של ליבות מעבד.
חלפו מאז מספר חודשים, כולם שכחו מכך, עד … הימים האחרונים, בהם אינטל הציגה תיאוריית קונספירציה חדשה: המעבדים של AMD במחשבים הניידים "מרמים" את המשתמש, ובשימוש סוללה ללא הזנת חשמל מהקיר, המעבדים מתחילים לתת ביצועים גבוהים כשהם נדרשים – רק לאחר 10 שניות! והנה הוכחה לדוגמא:
מה אנחנו רואים בגרף לעיל? (אפשר ללחוץ עליו להגדלה) – הגרף מראה כי מעבדי ה-Ryzen 4000 למחשבים ניידים, משהים את עליית המהירות ב-7-10 שניות כשהם אינם מחוברים לחשמל (הגרפים הצהובים) לפני שהם מעלים את המהירות בפועל וכתוצאה מכך, הביצועים הגבוהים "מעוכבים" ב-7-10 שניות כשהמשתמש לא מחובר לחשמל!
אכן קונספירציה! קראו לרודי ג'וליאני ונארגן תביעה יצוגית נגד AMD!
בפועל, אם המהנדסים של אינטל היו טורחים לשוחח עם המהנדסים של יצרני המחשבים הניידים, הם היו מגלים כי AMD מציידת את היצרן עם רשימת מסמכים גדולה, כולל לא מעט מסמכים והמלצות לגבי חסכרון בחשמל ופרופילים ש-AMD בנו במערכת ושהיצרן יכול להפעיל או לכבות או לכתוב פרופיל משלו. עניין ה-7-10 שניות ידוע לכל היצרנים והם דווקא מאוד אוהבים זאת ומפעילים כברירת מחדל את הפרופיל הזה, ואפשר להבין אותם: אם המשתמש נמצא בחוץ ואין לו שום נקודת חשמל באזור, האם הוא יסכים לביצועים מופחתים תמורת זמן סוללה יותר ארוך? אני לא מכיר אחד שיאמר "לא", במיוחד שאם הוא מתעקש על הביצועים היותר גבוהים – הוא יקבל אותם גם כך לאחר מספר שניות. הפתרון המתחרה של אינטל, אגב, הוא "להזניק" את ביצועי המעבד בצורה מיידית, מה שגם מביא לאחר מספר שניות את המעבד לנקודת חום של 97-99 מעלות, מה שמעביר את המעבד למצב Throttle ומפעיל מאווררים ברעש של מנוע סילון קטנטן למשך כמה דקות עם ביצועים יותר נמוכים עד שהמעבד יתקרר. תשאלו את משתמשי אפל על כך.
יצא לי לצפות במצגת של אינטל, ויש לי לא מעט השגות לגבי ההתעלמות ממתודות בדיקות סטנדרטיות לטובת בדיקות נישתיות (במקרה הטוב), כמות המחשבים הניידים שנבדקה, עומק הבדיקות ועוד, אך אינני חושב שכדאי להיכנס לכך. אינטל היא יצרנית מעבדים מעולה שפספסה פה ושם ואני בטוח שהיא תוציא מעבדים חזקים בהמשך (כבר במרץ הקרוב לדסקטופ ותכריז על מעבדים חדשים למחשבים ניידים בתערוכת CES הקרובה), אך אינני חושב שלכלוך על המתחרה הקטן הוא צעד נבון.
לסיכום: בין אם מדובר באינטל הענקית ובין אם מדובר על נציג של חברה – לכלוך על אחרים לא מקנה לך נקודות זכות. דבר על המוצר, דבר על יתרונותיו, תשווה באופן הוגן ומובן לאחרים והשתמש בסטנדרטים ידועים. זו הדרך להגדיל את הסיכוי לזכות במשרה או במכרז או בכל משהו שניתן לזכות בו.
עתה, כשכמעט כל אתר חדשות טכנולוגיה פרסם סקירה על המחשבים, וכל ערוץ יוטיוב טכנולוגי הדגים את מחשבי M1 ואת הביצועים המעולים, החלטתי לכתוב פוסט קצת שונה על הנושא ולהתייחס לדברים מזוויות מעט שונות.
אין ספק, בשנים האחרונות עבדו קשה מאוד באפל על מעבד ה-M1. חלק לא קטן מהעבודה היה יותר קשור לעקיפת פטנטים של אינטל ו-AMD (אי אפשר להוסיף תמיכה ישירה ב-X86-64 למעבד בלי אישור ורשיון מ-אינטל, משהו שאינטל לא חלמה אפילו למכור לאפל) ולכן כשמסתכלים על המספרים מבחינת מפרט המעבד M1, מקבלים תמונה של מפלצת! גודל ה-Cache לדוגמא ב-M1 עוקף בקלילות כל מעבד של אינטל או AMD הן במחשבים נייחים והן במחשבים ניידים. כל עניין ה-Branch Prediction לדוגמא (בכך בעצם ניתן לדעת כמה המעבד הוא "חכם" – איך שהוא מצליח לחזות את הפקודות העתידיות לבוא וכבר להריץ אותן, עוד לפני שהמערכת מבקשת זאת) – עובר בכמה וכמה דרגות את המעבדים המתחרים, של כל המתחרים, והשילוב היוצא מן הכלל במעבד של ליבות חלשות וחסכוניות, ליבות חזקות, Cache שזמין לכל חלקי ה-CPU כולל ה-GPU וה-Neural Engine ועוד – זו הברקה מעולה של אפל, וככלל – עצם העובדה ש-M1 מצליח ב-10-24 וואט להריץ אפליקציות X86-64 במהירות שרוב הזמן עוקפת את כל המעבדים הניידים המתחרים ונותנת ביצועים הרבה יותר גבוהים עם אפליקציות ARM Native, היא משהו מרשים בכל קנה מידה.
וכאן חשוב להכיר את התחרות, על מנת לקבל פרופורציות. קחו את מיקרוסופט, לדוגמא, שמנסה כבר 4 פעמים להפיץ ולמכור גירסת Windows שתרוץ על ARM. מיקרוסופט כבר בנתה גירסה כזו ואף מנסה למכור כזו, אולם אם תנסו להריץ אפליקציות 32 ביט X86 על Windows המבוסס ARM על המחשבים הניידים הללו (כמו Surface Pro X), כבר בשניות הראשונות תוכלו לראות את ההבדלים התהומיים בביצועים בהשוואה ל-M1 של אפל: עם M1 ו-Rosetta 2 ניתן להגיע בערך ל-80-90% מהביצועים הטבעיים שמקבלים עם מעבדים של אינטל או AMD, ואילו עם ה-Surface Pro X תגיעו לביצועים של 30-50 אחוז, וגם זה – אם יש לכם מזל. מדוע? כי בשעה שאפל "תקפו" את עניין הרצת אפליקציות X86-64 הן דרך המרה של הקבצים הבינאריים בזמן ההתקנה ובחלקים מסויימים בלבד משתמשים ב-JIT להמרה וקימפול דינמיים, במיקרוסופט עשו מאמצים כבירים כדי לתת ביצועים בינוניים של X86 – כלומר 32 ביט בלבד, וזאת למרות שרוב האפליקציות כיום הם 64 ביט, כך שמיקרוסופט מראש מכרה מוצר חצי אפוי, ורק לאחרונה הודיעה החברה כי היא מוסיפה תמיכה של 64 ביט X86-64 … דרך האמולציה הקלאסית. כמ שציינתי – חצי אפוי.
ככלל, מצב השוק בכל הקשור למעבדי ARM לדסקטופ הוא בכי רע, והמעבדים שכן קיימים כיום, הם די חלשים, ומה שלא ממש חלש (כדוגמת Snapdragon 865 – שנחשב חלש מאוד בהשוואה ל-M1, אגב) נמכר בתנאים ובמחירים מטורפים עם תמיכה חלשה בצד ג', כך שקשה לראות היום דסקטופ אלטרנטיבי מבוסס ARM עם ביצועים טובים וגבוהים (ולמי שחושב על הפתרונות של NVIDIA, נזכיר כי החברה קמצנית כרונית ב-RAM, ומשתמשת ב-GPU CORE מלפני יותר מ-5 שנים!).
מבחינת הדברים הנוספים: אפל בנתה בתוך ה-M1 את ה-GPU הפנימי החדש שלה. מבחינת ביצועים בהשוואה ל-PC, מדובר על משהו שהוא לא יותר מאשר GTX 1050 או MX350 של nVidia. יחד עם זאת, מכיוון שיש Cache רציני, גישה ישירות ל-RAM ועוד טריקים שאפל משתמשת – נוצר מצב בו רואים ביצועים יפים מאוד עם אפליקציות ליצירת/עריכת תכנים על מחשבי מקבוק בתצורה הכי בסיסית! הנה דוגמא להרצת Davinci Resolve 17 בטא בגירסה Native ל-M1 שמשתמשים בקליפים של 4K ו-8K שצולמו ב-RED:
נשאלת השאלה – איך זה לכל הרוחות רץ בצורה טובה עם 8 ג'יגהבייט זכרון? הרי אם תיקחו כל PC נייד ותגבילו אותו ל-8 ג'יגהבייט זכרון עם GPU פנימי שמגיע עם המעבד – לא תקבלו אפילו 20% ביצועים מזה! אז איך אפל עושים זאת?
והתשובה לכך פשוטה: לאפל יש שנים של נסיון בניהול תהליכים ואפליקציות שרצות במקביל בתוך המכשיר מבלי להשתמש בהרבה זכרון. קחו לדוגמא את ה-iPad Pro, מכשיר שאפשר בכיף גם לערוך איתו וידאו ולבצע דברים רבים נוספים במקביל בו. כמה RAM יש בו? 4 ג'יגהבייט, וזאת בהשוואה לפתרונות מבוססי אנדרואיד שכיום מגיעים עם 6 ו-8 ג'יגהבייט שעדיין לא נותנים את אותם ביצועים בהשוואה לאייפונים ואייפדים. מה שאפל בעצם עשתה, היא לייבא את כל עניין ניהול הזכרון ל-MAC OS ועוד חלקים מהאייפון/אייפד אל מערכת ההפעלה החדשה (ה-Big Sur) וברגע שהאפליקציות מקומפלות ל-M1 ורצות בצורה טבעית, דרישות הזכרון של אותן האפליקציה יהיו שונות וברוב המקרים הן תרוצנה בצורה טובה גם על מחשב עם 8 ג'יגהבייט RAM בלבד. במילים אחרות: אפליקציות טבעיות ל-M1 יכולות לתת ביצועים לא רק שיותר גבוהים בהשוואה לגרסאות X86-64, אלא גם לחסוך במשאבי זכרון.
אז .. לרוץ ולרכוש איזה מקבוק אייר/פרו או מק-מיני מבוססים M1? לא כל כך מהר…
מכיוון שמדובר במערכת חדשה לגמרי, כמות הדרייברים שאפל כתבה למעבד היא מינימלית ובקושי כוללת דרייברים לציוד צד ג', כך שישנן בעיות כמו:
לכן – אם אתה רוצה למכור את המחשב הנייד הנוכחי שלך ולעבור למחשב נייד מבוסס M1 – אני ממליץ לא לבצע זאת בשלב זה ולהמתין לגירסה הבאה שתצא בשנה הבאה או לגירסת ה-A14T שתצא בשנה הבאה כפתרון דסקטופ. אם לעומת זאת, אתה מעוניין לקנות מק מיני M1 כמחשב נוסף – לך על זה, רק קח בחשבון בעיות תאימות וחוסר דרייברים.
לסיכום: אפל הצליחה להוכיח ש-ARM לדסקטופ יכול להיות רעיון מעולה עם ביצועים שעוקפים (לא לזמן רב, אגב) את המתחרים. האם המתחרים יקחו זאת לתשומת ליבם? אולי, ואולי לא (אני בספק אם משהו ישתנה בצורה מהותית במהלך השנתיים הקרובות), אבל מה שאפל מציעה כרגע יכול בהחלט לקרוץ למתחילים כרגע, ולמקצועיים בהמשך הדרך. זה לא אומר שכדאי וצריך מיד לזרוק את כל מחשבי המק שמבוססים על אינטל, אבל אם זה מה שאפל מצליחה להוציא ממחשב נייד, יהיה בהחלט מעניין לראות מה היא תוציא על מחשבים נייחים.
"מים רבים עברו מתחת לנהר" – אני יכול לאמר כך על תקופה של יותר מעשור שעברה מאז כותב שורות אלו היה עסוק בהרמת שרות Streaming ללקוחות שונים. בניגוד להיום, דברים היו מורכבים וסופר יקרים: שרותי ה-CDN בארץ היו קיימים אך יקרים בטירוף, היה צורך בלרכוש לא מעט שרתי אפליקציות כמו Wowza, לשכור Load Balancers ולהגדיר דברים רבים – בכדי ששידור יזרום, ויזרום גם בעומס (עד שמגיע הרגע שאתה מגלה שספק האינטרנט שהבטיח לך 10 ג'יגהביט בחווה – חיבר אותך "בטעות" למתג של 1 ג'יגהביט).
כיום – כל אחד יכול לשדר לאלפים, עשרות אלפים ומאות אלפים במספר קטן של קליקים בטלפון סלולרי. כל מה שצריך זה לפתוח אפליקציה כמו יוטיוב, ללחוץ על אייקון מצלמת הוידאו, ללחוץ על GO ותוך כמה שניות – המנויים יכולים לראות אותך בכל העולם, לא חשוב היכן אתה נמצא. הכל קל, מהיר, זריז, והכי חשוב – לא מצריך כמעט שום ידע טכני.
הדברים מתחילים להיות יותר ויותר מורכבים ככל שהסיטואציה יותר מורכבת. כן, שידור וידאו ממצלמת הטלפון הסלולרי קל מאוד לבצע, אבל מה אם אני רוצה לשדר דרך מצלמת DSLR מהמחשב? פה אני כבר צריך לחבר כבל HDMI למצלמה ולהשתמש באחת מהתוכנות הפופולריות כמו OBS Studio, Xsplit, או vMix או אחת מהתוכנות האחרות – כדי להתחבר לאחד משרותי השידור הפופולריים (יוטיוב, Twitch, Facebook, (ובצורה לא רשמית – גם אינסטגרם, כל עוד אתה יודע "לשחק" עם ה-RTMP, ואגב – זה בתשלום אחרי 3 השידורים הראשונים). התוכנות הללו גם נותנות לך להשתמש בפילטרים, תוספים, יצירת "סצינות" עם מצלמות שונות (USB, RTMP, HDMI וכו') ואפשר להגיע איתן לתוצאות יפות ומרשימות. היתרון הענק בתוכנות הללו כיום – הוא הפשטות בחיבור לשרותי זרימה עצמם. כך זה נראה ב-OBS Studio, לא נראה לי שלמישהו יהיה קשה עם הממשק הזה להגדיר:
לאחרונה החלו לצוץ כל מיני "קופסאות שידור" (YoloLiv Yolobix יצא לפני מספר חודשים, לפחות עוד שלושה מוצרים חדשים אמורים לצאת בשנה הבאה [אין באפשרותי למסור פרטים עקב NDA]), גם חברת Black Magic יצאה עם שורת מוצרי Atem Mini ויש עוד מספר מוצרים – כולם מכוונים לנקודה מרכזית: לפשט את תהליך השידור תוך כדי קונסולידציה של אמצעי הזרימה למכשיר אחד ושידור מאותה קופסא, מבלי שהמשתמש יצטרך להיות מומחה למחשבים או מבין טוב בענייני זרימת וידאו, H.264, הקלטות, Bit Rate ושלל מושגים אחרים, והם מייעדים את עצמם הן לחובבי שידורי הזרימה (וולוגרים) והן למקצוענים שמצלמים כנסים, אירועים מרובי משתתפים ועוד.
מכשיר ה-YoloLiv לדוגמא, מציג גישה מעניינת. מדובר במכשיר אנדרואיד שכולל בעצם כל מה שצריך כדי לשדר ולהזרים מידע בין ב-WIFI, בסלולר ובחיבור רשת. אפשר לחבר 2 מצמות ב-HDMI ומצלמה בחיבור USB (כל עוד המצלמה משדרת בסטנדרט UVC, כמו המצלמות של לוג'יטק), אפשר להכניס כרטיס SIM, כרטיס SD על מנת להקליט (ולשדר קבצים שקיימים בכרטיס), אפשר לשדר לשרותי ה-Streaming הפופולריים (לפחות בסקירות וידאו שראיתי, יש עדיין כל מיני "קפיצות" שצריך לעשות כדי להגדיר חיבור ליוטיוב לדוגמא) – ובקיצור, למי שצריך להקליט מ-2 מצלמות ובמקביל לשדר את התוכן מאחת המצלמות, (השידור הוא על ערוץ יחיד. אין תמיכה ל-Multi Cam של יוטיוב) – הפתרון הזה הוא פתרון טוב…
… אם לא מסתכלים על הצעות המתחרים ועל המחיר..
המחיר עולה 4800 שקלים (וזה לא בגלל היבואן בארץ. המחיר בחו"ל הוא 1100 דולר), ובמחירים כאלו הדבר הראשון שהייתי ממליץ לעשות, גם לאלו שאין להם שום בעיה להוציא את הסכום – להסתכל על הצעות מתחרות.
בואו ניקח לדוגמא את ה-Atem Mini Pro של Black Magic. בניגוד ל-Yololiv, יש תמיכה בציוד של:
המחיר? 2800 שקל ביוגנד.
ישנו דגם יותר משוכלל (ה-Atem Mini Pro ISO) שמאפשר:
המחיר בארץ – 3990 שקל ביוגנד – כלומר זול ב-800 שקל מה-YoloLiv ונותן הרבה יותר פונקציות.
אחד הדברים החשובים בשידור – הוא שידור דרך תשתית הסלולר (אם אין חיבור DSL/הוט/סיבים לשדר דרכו באותו מקום). שידור דרך סלולר הוא בעייתי מאוד הואיל וברגע אחד ישנה מהירות העלאה של 50 מגהביט וברגע אחר – 2 מגהביט בקושי, למרות שלא זזת מילימטר מהמקום, ועם זה המקודד בתוך הקופסא צריך להתמודד, צריך ליצור בזמנים נכונים את ה-I Frame, וכמה שיותר "למשוך" אם אפשר את ה-B ו-P ולקודד באיכות הכי טובה שאפשרית באותו רוחב פס והתמודדות עם "קפיצות" של רוחב הפס, ולכן צריך מעבד רציני שיודע לקודד ולהתמודד עם סיטואציות אלו. לבלאק מג'יק, "במקרה" יש נסיון ביצור מצלמות וציוד שידור כבר 20 שנה (מ-2001). אני מאמין שהציוד שלהם מקצועי….
נקודה חשובה נוספת לגבי שידור סלולרי – אל "תיבנו" על מודם סלולרי פנימי. במקרים רבים תכנון והטמעת האנטנות הסלולריות במכשירים רבים (כולל מחשבים ניידים, במיוחד של חברה אמריקאית מסויימת שלא אציין את שמה) הוא גרוע והקליטה היא בינונית ומטה. אפשרויות מומלצות:
לסיכום: לפני שרוכשים פתרון כלשהו הקשור להזרמת מדיה לשידורי מצלמות – חשוב לבדוק מחיר ותמורה מול הצעות מתחרות. במקרה הזה השוויתי שתי הצעות -YoloLiv מול Atem Mini Pro ולעניות דעתי – ההצעה של בלאק מג'יק זולה משמעותית ונותנת יותר. יש כמובן עוד הצעות ועוד מוצרים, ולכן אני ממליץ בזמן הפנוי (ואם מחפשים לרכוש פתרון) להציץ יותר ולשאול אחרים.
הסיפור עם מעבדי Threadripper הוא סיפור יחודי. קבוצת מהנדסים משתי קבוצות שונות ב-AMD בנו מעבד שמורכב מחלקים הקשורים גם לדסקטופ וגם לשרתים, כאשר הדגש הוא שהמעבד יהיה עבור משתמשי דסקטופ ובמחירים הרבה יותר נמוכים ממה שאינטל מבקשת. משפחת המעבדים זכתה להצלחה ולהתעניינות שיא של לקוחות החברה שמעוניינים במעבדים מרובי ליבות ובמעבדים עוצמתיים במחירים נוחים.
מעבדי ה-Threadripper, כפי שציינתי לעיל, היו מיועדים בראש ובראשונה למשתמשי הדסקטופ (ליתר דיוק, לסקטור ה-HEDT, כלומר High End Desk Top). כמות ערוצי הזכרון קוצצה בחצי בהשוואה למעבדי EPYC (המיועדים לשרתים), כמות הזכרון הנתמכת היתה מיניאטורית (בגרסאות הראשונות – עד 128 ג'יגהבייט), כמות נתיבי ה-PCIe נחתכה בחצי (64 נתיבים) אך מצד שני – מהירות המעבד עלתה באחוזים ניכרים בהשוואה למעבדי EPYC, הואיל ומעבדי Threadripper הצריכו קירור צמוד, בניגוד לקירור שקיים למעבדים עבור שרתים.
תחום אחד נשאר מחוץ לתמונה: שוק תחנות העבודה. יצרני תחנות העבודה כמו לנובו, Dell, HP, Supermicro ואחרים לא יכלו לקחת מעבדי Threadripper ולבנות מסביבם תחנת עבודה, הואיל ומספר דברים שלקוחות הארגונים דורשים – היו חסרים:
ל-AMD, חשוב לציין – יש אפס נסיון ביצירת מעבדים לתחנות עבודה. עד כה בדורות קודמים (טרום ZEN) המעבדים ש-AMD יצרו לשרתים, יוצרו לשרתים בלבד ותו לא, ו-AMD לא ממש תכננה לבנות פתרונות לתחנות עבודה.
ואז .. הגיעו אפל והראו את היצירה החדשה שלהם: מק פרו, עם מעבדי Xeon עד 28 ליבות, ותמיכה ב-1.5 טרהבייט זכרון, מראה חתיכי ושקט. עכשיו המתחרים בבעיה: כן, הם יכולים להציע מחשבים עם אותו מפרט ועם אותם מעבדים (ומחשבי המתחרים יהיו למען האמת מעט יותר מהירים הואיל ואפל מורידים את ביצועי ה-Xeon עם 28 ליבות בערך ב-20% כדי שהמחשב לא יתחמם יותר מדי…), אבל המתחרים רוצים משהו יותר חזק, משהו שיכול "להרביץ" למק-פרו. המתחרים היקרים לא יכולים להשתמש במעבדי EPYC, הואיל ו-EPYC עם Windows 10 – לא משהו שרץ טוב, בכלל. (ה-EPYC בנוי יותר להריץ לינוקס ו-VMware, וגם FreeBSD אם כי שם עדיין חסר עבודה).
זמן קצר לאחר שהחלו השמועות על המק פרו, יצרני תחנות העבודה החלו ליצור קשר וללחוץ על AMD להוציא משהו. מכיוון שאי אפשר כך לעשות COPY PASTE ממעבדים אחרים של AMD, ב-AMD החליטו להיענות לאתגר ולבנות Chipset חדש וגירסת מעבדי Threadripper חדשים. יצרני לוחות האם קיבלו כמובן גישה מוקדמת ויד חופשית לבנות לוחות מפלצות שאינן מוגבלות כמו במקרה של מעבדי אינטל (רק 6 ערוצי זכרון, רק 44 נתיבי PCIe ועוד)
תכירו: Threadripper Pro. למעבדים אלו יש את התכנות הנוספות הבאות, בהשוואה למעבדי Threadripper:
ב-AMD מכריזים היום על ארבעה מעבדי Threadripper Pro חדשים:
שם דגם | כמות ליבות | מהירות בסיס | מהירות מירבית | כמות זכרון L3 |
Threadripper Pro 3945WX | 12 | 4.0 | 4.3 | 64 |
Threadripper Pro 3955WX | 16 | 3.9 | 4.3 | 64 |
Threadripper Pro 3975WX | 32 | 3.5 | 4.2 | 128 |
Threadripper Pro 3995WX | 64 | 2.7 | 4.2 | 256 |
(נכון לשעת כתיבת פוסט זה, אין מחירים ידועים. לאחר פרסום רשמי של המחירים – יעודכן פוסט זה).
נקודה חשובה לציון: מעבדי Threadripper Pro, כמו "אחיהם" Threadripper – לא מחפשים להתחרות במחירים נמוכים. AMD כבר הורידה את מחירי ה-Ryzen ב-50-100 דולר, אבל Threadripper נשאר בדיוק באותו מחיר ו-Threadripper Pro סביר להניח שיהיה יותר יקר מ-Threadripper רגיל (אך עדיין במרחק עצום מהמחירים שאינטל מבקשת). בנוסף – לוחות אם ל-Threadripper Pro (הלוחות אינם תואמים ל-Threadripper) יתחילו במחירים של 500 דולר ומעלה.
לסיכום: אם אתם צריכים מחשב עם המון כח, עם קיבולת גדולה של כרטיסי GPU וכרטיסים אחרים, חיבורי דיסקים U.2 ואתם מעוניינים לרכוש פתרון מוכן מאחת יצרניות תחנות העבודה הגדולות – כעת יש לכם אפשרות לבחור לא רק בפתרונות של אינטל אלא גם בפתרונות הרבה יותר חזקים.
הערה: ההכרזה הרשמית תהיה הערב, וההכרזה של חברת Lenovo תהיה ב-19:30 בערב שעון ישראל, אתם יכולים להירשם לשידור כאן.
הערה נוספת למלעיזים: לא, אני לא נציג ולא מטעם AMD (יש עדיין אמברגו בעת כתיבת שורות אלו) וכשאני רוכש מעבדים, אני משלם עליהם מחיר מלא, כך שפוסט זה אינו מטעם ואינו ממומן.
אם יש משהו שאפשר לראות יותר הרבה ממנו בגופים גדולים ופחות מדי ממנו בחברות ובעסקים קטנים – זה אבטחת מידע. בחברות גדולות, מחלקת אבטחת מידע מעורבת כמעט בכל פיפס – תכנון, הטמעה, בדיקות וכמובן אם יש פריצות – הם אלו (בנוסף לגופים אחרים) שיחקרו את האירוע. בחברות ובעסקים קטנים – מחלקת האבטחת מידע מסתכמת באיזו קופסת Appliance ובלא מעט מקרים הניהול שלה נעשה מרחוק ע"י חברות שונות (לא ניכנס לרמת ה"אללה יוסטור" של הניהול בפוסט זה).
מהרגע שעניין הוירוס קיבל דחיפות יותר ויותר גדולה בארץ, חברות עטו על יבואני מחשבים לרכוש לאפטופים לעובדים, בין אם מדובר ברכישה קטנה של בודדים או מאות. כל לאפטופ קיבל טיפול פירמוט והתקנת Image עם כל האפליקציות של החברה, חיבור VPN, חיבור לשיחות וידאו ועוד מספר דברים – וכך כיום רוב החברות עובדות: מרחוק, עם VPN, עם Zoom/teams/WebEx/Skype לצורך פגישות ושיחות וכו'.
וכאן גם מתחילה הבעיה הגדולה, בכל מה שקשור לאבטחת מידע: ככל שיש יותר לאפטופים מבוססי Windows/Mac שמתחברים לרשת הארגונית דרך ה-VPN, הסיכוי לפריצה – גדול עד גדול מאוד. אף קבוצה שפורצת לא מחפשת לפרוץ ישירות את התשתית הארגונית בכך שינסו לתקוף את ה-Firewall/IPS/IDS, הכל עושים "מסביב", דרך קבלני משנה, דרך לאפטופים של עובדים שלא מבינים כלום באבטחת מידע. כל מה שצריך בסופו של יום זה פשוט לפרוץ ללאפטופ שנמצא בבית במגוון שיטות, וברגע שאותו לאפטופ יהיה מחובר דרך ה-VPN, הפורץ יוכל להריץ ברקע מגוון סקריפטים כדי לסרוק/לגנוב מידע ועוד. לא מאמינים? תכירו את חברת Visser, קבלן משנה של NASA, SpaceX, Tesla ועוד מספר חברות – דרכה פרצו לאותן חברות וגנבו מידע ומאוחר יותר פרסמו אותו.
אחד הדברים החשובים שמנהלי IT צריכים לזכור, הוא שתמיד יהיו נסיונות פריצה בתקופה זו שהם הרבה יותר מהותיים מבעבר. כשהלאפטופ שנתתם לעובד יושב בבית ומחובר ל-WiFi הביתי, יהיה קל לפרוץ אליו, והמודעות לזיהוי נסיונות הפריצה, פישינג וכו' כמעט ואינה קיימת אצל עובדים שאינם מומחי IT/אבטחת מידע, כך שזוהי תקופת "גן עדן" עבור הפורצים (מפורצים אינדיבידואליים ועד פורצים מטעם ארגונים שונים בחסות מדינות שונות שמחפשים לשאוב מידע/לגלות חולשות אבטחה וכו'). זה לא עוד משהו תיאורתי. עכשיו זה בדיוק הזמן שהתיאוריה הופכת למציאות שיכולה להיות מציאות מאוד עגומה לארגון.
האם ניתן לעשות משהו בנידון? כן.
על מנת להגן בצורה מיטבית על התשתית הארגונית ועדיין לעבוד מרחוק עליה – נצטרך לבצע מספר דברים מהותיים, כשחלק גדול מהן יצריך השקעה כספית רצינית. אפשר לממש חלק מהדברים, או את הכל. לשיקולכם:
כמובן, כל ארגון ששומע את המילים "VDI" מצליח אוטומטית לדמיין השקעה כספית ענקית שלמען האמת, רוב הארגונים לא יאשרו בעת הנוכחית, אז תרשו לי לפרק זאת לגורמים ולהראות שאפשר לחתוך לא מעט:
לסיכום: פתרון של פיזור לאפטופים לעובדים שנמצאים בבית הוא פתרון בעייתי מאוד מבחינת אבטחת מידע והסיכוי שיפרצו לתשתית הארגון גודל בצורה מאוד משמעותית. לעניות דעתי, אפשר לעבוד מבחוץ גם בשיטות אחרות ואולי כדאי לבדוק זאת.
כל ארגון, קטן כגדול, ימצא את עצמו בהווה או בעתיד, בנקודה שהוא צריך לבצע שינויים בתשתית ה-IT שלו. זה יכול להיות קשור להחלפת יצרן שרתים, מתגי תקשורת, וירטואליזציה, קונטיינרים ועוד. בניגוד לעבר הרחוק, כשכמות השינויים היתה קטנה ומתרחשת אחת לכמה שנים טובות, כיום השינויים הם יותר תכופים – עברתם לאופיס 365 עם חשבונות אימייל בענן וההנהלה כבר מבקשת ניירת עם נקודות לגבי הקמת תשתית וירטואלית אצל ספק ענן ציבורי כלשהו, נא להמליץ על ספקי ענן ציבורי, מה ההבדלים ביניהם, מחירים, מה יותר טוב עבורנו, תוכניות מיגרציה ועוד ועוד, ואת התוכן הנ"ל מבקשים ממכם במקרים רבים – בדחיפות.
כאחד שנותן יעוץ ללקוחות, אני מוצא את עצמי במקרים רבים באמצע, מצד אחד הלקוח שמחפש פתרון מסוים, ומהצד השני – אנשי שיווק של חברות שונות שמציעים מוצרים שונים שאמורים לתת את אותו פתרון, והג'וב שלי הוא בעצם לסייע ללקוח לבחור את אחד הפתרונות. מהפוזיציה הזו אני רואה מספר דברים שלקוחות עושים שלא מקדמים אותם לשום מקום בדרך להחלטה, ולכן החלטתי לכתוב פוסט זה. לא כביקורת, אלא רק כטיפים.
אתחיל מדוגמא פשוטה ומאוד שכיחה: אכלתם מרורים מצד יצרן השרתים שאתם עובדים איתו, נשבר לכם הפיפס, והמנמ"ר/ראש צוות IT החליט "אינאף איז אינאף", אז מתחילים לחפש יצרן מועדף אחר ונציג/מפיץ של אותו יצרן. אותו סיפור יכול לקרות גם עם טכנולוגיות אחרות, או שהוא יכול להתרחש בגלל דרישה שעולה לאמץ טכנולוגיה מסוימת כתחליף לטכנולוגיה שהם משתמשים בה כרגע.
אז איך בעצם מתקדמים, למה כדאי להקשיב, מה כדאי לעשות או ללמוד?
הדבר הראשון, לפני שאתם בכלל חושבים להוציא מכרז או להתחיל להתעניין אצל משווקים מסויימים לגבי הפתרון שאתם רוצים, הוא להתחיל ללמוד את התחום או את סוגי הפתרונות השונים שקיימים באותו תחום. תתחילו להכיר את המושגים הטכניים, תתחילו לצפות ביוטיוב בהדגמות של הפתרונות השונים, חפשו סקירות מקצועיות אובייקטיביות (לא מצד יצרן הפתרון או נציגיו) ונסו להשיג כמה שיותר מידע.
הדבר השני – למפות את הצרכים שלכם במסמך מפורט, דברים כמו:
יש רשימות מוכנות? מגניב, נעבור לשלב הבא בו אתם מזמינים לפגישה אנשי Pre-sale של הפתרונות המתחרים. בדרך כלל אנשים אלו יגיעו עם מישהו מקצועי שאמור לענות לכם על השאלות המקצועיות שלכם. חשוב לזכור: מטרת שתי האנשים שמייצגים את הפתרון הוא לגרום לכם במינימום – להתעניין ברצינות במוצר שלכם, ולעשות את כל מה שאפשר כדי שתרכשו את המוצר, וכאן יש מספר מוקשים שכדאי לפרק:
ככל שתפגשו עם יותר נציגים שמוכרים פתרונות שונים, תקבלו יותר ויותר מידע מוטעה. הנציג הקודם עם המוצר המתחרה הבטיח X מבחינת ביצועים? אפשר לקבל את X במוצר המתחרה – אם תשקיעו עוד 100,000$ בחומרה לדוגמא. בקיצור – תתכוננו להטעיות (עם/בלי כוונה).
נגמרו הישיבות, יש בידיכם הצעות מתחרות שאמורות לתת את הפתרון שאתם מחפשים. מזל טוב!
כאן מגיע החלק היותר מקצועי. כמעט בכל הצעה, ועל מנת לתת לכם מחיר נמוך/תחרותי – הוכנסו כל מיני "עזים". זה יכול להיות (במקרה של פתרון חומרה) ציוד מסוים שלא יתן את הביצועים הנדרשים לאורך זמן, זה יכול להיות קשור לרשיונות לא מתאימים או שלא כוללים את כל מה שצריך וכו' וכו' ולכן צריך להסתכל על כל הצעה בזכוכית מגדלת ולבדוק שורה שורה את המפרט, או שיש לכם נסיון בכך או שתיקחו יועץ לכך.
קיבלתם יעוץ ובחרתם פתרון? ברכותיי. עכשיו הגיע השלב להטמיע את הפתרון.
כאן אני מעוניין להמליץ לכם לחפש את האינטגרטורים העצמאיים או את העסקים הקטנים שנותנים שרותי אינטגרציה וזאת מהסיבה הפשוטה: עצמאי או עסק קטן ישקיע הרבה יותר בכם כדי שתהיו מרוצים וכדי לקבל ממכם הזדמנויות נוספות ופרויקטים חדשים. אבל, בסופו של יום, זו רק המלצה סובייקטיבית ממני.
בחרתם מישהו שיעשה זאת? ודאו כי אותו אינטגרטור לא רק שיתקין ויגדיר את המערכת – אלא גם ישלב אותה עם המוצרים האחרים שרצים אצלכם בארגון. כדאי לסגור זאת בחוזה, בנק שעות וכו'.
לסיכום: בחירת פתרון, ולא חשוב אם מדובר בפתרון חומרה או תוכנה – מצריך השקעה ולימוד, אתם תקבלו לא מעט מידע מוטעה מכל מיני נציגי שיווק ובלא מעט מקרים תצטרכו לעשות רביזיה לתקציב. חשוב לקחת את כל הדברים בחשבון ולא להחליט על פתרון ב"שלוף", גם אם המחיר הנמוך קורץ לכם או שהנציג המקסים מספר לכם על החברה/המוסד המפורסמים קנו את המוצר ומרוצים ממנו עד הגג.
בהצלחה.
לפני כמה ימים יצא לי לשוחח עם מישהו שפנה אליי מהבלוג לגבי פרויקט שהם מתכננים. מטבע הדברים אינני יכול לפרט, אבל משהו אחד שאני כן יכול לאמר (באישור שלו) – זה שהם מתכננים רשת ממש "אכזרית". כמה "אכזרית"? יש לא מעט ארגונים (בנק הפועלים לדוגמא, לפי פרסום שלהם) שמשתמשים ב-100 ג'יגהביט רשת ל-Backend, פה מדובר על 100 ג'יגהביט פר שרת. מכיוון שלא סגרנו חוזה ודיברנו על כרטיסים, הזכרתי בשיחה כרטיס מסוג CONNECTX-5 EN ADAP שיכול לעמוד יפה במשימה, אך המלצתי לו שבשביל השרידות, הוא יצטרך 2 כרטיסים כאלו וכאן הכל קשור ל-Fear Factor.
מה הכוונה? אם הלקוח רוצה לרכוש את הכרטיס הנ"ל ישירות מהיצרן, אז הוא ישלם 795$. לעומת זאת, אם הוא ירכוש זאת דרך יצרן השרתים שהוא משתמש (HPE) – הוא ישלם על אותו כרטיס בדיוק – 1600-2100$, וכאן בעצם נכנס ה-Fear Factor: ככל שחברה יותר גדולה, מפעילים יותר "ראש קטן" וקונים מיצרן השרתים בגלל Fear Factor וחשש שמא, אולי, יצרן השרתים לא יתן תמיכה, גם אם המחיר הוא פי 2-3. ככל שהחברה לעומת זאת יותר קטנה או שיש בה ראש צוות IT/מנמ"ר שמפעיל ראש יותר "גדול" – הוא ירכוש במחיר היותר נמוך, כל עוד הוא מקבל מסמך אחריות ותמיכה מיצרן הציוד.
מכאן נעבור לאחסון ונראה כיצד ה-Fear Factor יכול להשפיע.
"על הנייר" מבחינה טכנית נטו – אחסון בשיטת Scale out היה אמור לכבוש נתחים גדולים בשוק ולפגוע במכירות אחסון Scale Up מסיבות ידועות: אפשר להגדיל את כמות האחסון ללא השקעה כה מאסיבית מבחינה פיננסית, אפשר להגיע לכמות IOPS רצינית מאוד בכך שמשדכים עוד ועוד שרתים, והשרידות של פתרונות Scale Out מעולה. מבחינת שוק אחסון Scale Out, החלוקה די פשוטה: Nutanix בקצה הנמוך, vSAN בקצה הנמוך עד בינוני, Ceph בקצה הגבוה (כשאני מדבר על קצה גבוה – אני מדבר על החל מ-1-2 פטה ומעלה ועד כמות דו ספרתית של פטהבייטים).
אני רוצה לתת דוגמא של יעוץ שעבדכם הנאמן נותן כשזה מגיע לאחסון Scale Out שמגיע לפטהבייטים – אל תרכוש דיסקים מיצרן השרתים ותכניס לשרתים (למעט 2 דיסקים SSD בתצורת M.2 לאחסון מערכת הפעלה). רכוש שרתים בתצורת 1U, ו- JBOD גדול (12-24 דיסקים), ואז לחבר את ה-JBOD לשרתים ולסגור עיסקה עם מפיץ/יבואן של דיסקים כולל SLA. במקרים של הטמעות כאלו, מדובר על מאות או אלפי דיסקים, ושיטה כמו שאני מציע תחסוך משמעותית במחיר הפרויקט.
את הדבר הזה לדוגמא, קשה "למכור" לארגונים בינוניים עד גדולים בגלל ה-Fear Factor שהזכרתי לעיל, שאולי, חס ושלום, יצרן השרתים לא ירצה לתת תמיכה (או במקרה של HPE, זה יעבוד אבל לא יתן חיווי טוב לגבי הדיסקים אם מכניסים דיסקים צד ג'), ולכן הם יעדיפו לשלם פי 2-3 פר דיסק, גם אם תראה להם שהם משלמים הרבה יותר מדי. זו בדיוק אחת הסיבות שחברות רבות העדיפו לרכוש אחסון Scale Up.
אותו פקטור יכול לגרום להחלטות שבלא מעט מקרים – יגרמו לחרטה מספר שנים קדימה בהמשך הדרך ואחת הסיבות לכך – היא שדרוג האחסון במשך הזמן. במקרים רבים רוכשים אחסון בגודל X טרהבייט ועקב הצרכים המשתנים, יש צורך להגדיל את אותו אחסון ל-Y טרהבייט, וכאן מצפה להם הפתעה – מחיר השדרוג במקרים רבים יהיה כה גבוה – שחברות רבות פשוט מתחילות לחפש פתרונות אחרים
לכן – לפני ש"קופצים" על פתרון אחסון קופסתי (Scale Up) צריך לקחת בחשבון שפתרון Scale Out יתן לנו פתרון שניתן לגדילה בקלות לאורך זמן – יותר מ-3 שנים, מחירי הדיסקים (גם כשרוכשים מיצרן השרתים) יורדים במשך הזמן, והגדלת כמות האחסון, אם צריך ויש שרתים פנויים לתת שרות כזה – לוקחת זמן קצר מאוד.
לסיכום: אם אתם מחפשים אחסון עם IOPS גבוה שמשולב עם פתרון וירטואליזציה ואם אתם חושבים להשקיע לטווח הארוך, אחסון Scale Out יכול להוות פתרון מעולה. באחסון Scale Out לא זורקים אחסון קודם ומחליפים באחר, וכמובן – קל יותר לגדול. מצד שני – אחסון Scale Up יכול להתאים כשרוצים "פתרון בקופסא אחת" ולא מעוניינים להשקיע בפתרון שישרוד מעבר למה שהקופסא היחידה יכולה לתת (ואגב, פתרון אחסון של "2 ראשים" כיום – אינו שווה השקעה. עדיף כבר ללכת על פתרון Scale Out) ולא ממש חושבים מעבר ל-3 השנים הקרובות.
הערה: כתבתי מסמך בגוגל דוקס המשווה פרמטרים רבים בין אחסון Scale Up לאחסון Scale Out. המסמך נמצא כאן.
למי שזוכר (ולמי שלא) – בשנה שעברה פרסמתי מספר מאמרים על VDI, ובחלק מהמאמרים התייחסתי לכך ששום פתרון מהחברות הגדולות (Microsoft, VMWare, Citrix, ,Nutanix) אינו מתאים לעסקים קטנים שיש להם בין כמות חד ספרתית של מכונות דסקטופ לבין כמות דו ספרתית בינונית (30-50, נניח) של מכונות דסקטופ. עלות פתרון VDI כולל תוכנות, רשיונות, ברזלים – היא מעל ומעבר לתקציב של אותם עסקים קטנים.
לכן, בסיוע חברת CRG שהשאילה לי ציוד (תודה, תומר!) ישבתי בחודשים האחרונים ובדקתי מספר פתרונות עם אפשרויות שונות והגדרות שונות על מנת להשיג מצב שמשתמש יוכל להשתמש במכונה וירטואלית עם אופיס, דפדפן ועוד כמה תוכנות שאינן דורשות משאבים גרפיים רציניים. במילים אחרות – חיפשתי פתרון VDI במובן המילולי – לקחת מכונת דסקטופ פיזית, לבצע לה P2V ולזה המשתמש יתחבר, רק בלי כל הפונקציות שהתוכנות הגדולות נותנות, ולכן אני כותב לטובת כל מיני מטרילים למיניהם: פתרון זה לא בא להתחרות בפתרונות הגדולים והמוכרים, אלא בא לתת משהו בסיסי עם כמה תוספות נחמדות.
מתוך כל מה שהתנסיתי – כתבתי מסמך ב-Google Docs שאותו אני משבץ בפוסט זה (אפשר לגשת אליו ישירות דרך הקישור הזה ולהשאיר גם הערות) עם כל הנקודות. המסמך הזה מיועד לחברות שרוצות לתת ללקוחותיהם שרות כזה בכך שימירו P2V, יקימו פתרון וירטואליזציה (דיברתי במסמך על מספר סוגי פתרונות וירטואליזציה) ויתנו תמיכה ושרותי תחזוקה.