מה זה Latency?

Latency היא מונח טכני המתאר את משך הזמן שלוקח למידע לנסוע ממוצא ידוע לנקודת יעד, ונמדדת לעיתים קרובות במילישניות (milliseconds). זהו גורם קריטי בכל סוגי תשתיות התקשורת, במיוחד באינטרנט, מאחר שמשפיע על ביצועים והידוד מערכות. בסביבה מקוונת, Latency נמוכה נחשבת להרצויה ביותר במיוחד ביישומים כמו משחקי רשת, הזרמת וידאו ושירותי וידאו קונפרנס. ככל ש-Latency יותר נמוכה, התקשורת מתרחשת בזמן אמת יותר, והמשתמשים חווים חווית גלישה חלקה יותר.

האופן בו מחושב Latency עשוי לכלול מגוון גורמים, כגון זמן עיבוד של שרתים שונים, המהירות של תשתיות התקשורת, והעומס ברשת. לדוגמה, כשמפעילים בקשה לשרת אינטרנט, Latency היא הזמן שלוקח לשרת לעבד את הבקשה ולשלוח תשובה חזרה למשתמש. תהליך זה מורכב מהתעבורה ברשת, הכוח החישובי של השרת, והיעילות של אלגוריתמי ניהול המשאבים.

סוגי Latency כוללים 'Network Latency' שמתייחס לזמן התעבורה ברשת בין שני קצוות, ו-'Process Latency' שמתייחס לזמן בו תוכנה או מערכת מעבדת את הנתונים. נניח משתמש רוצה לגשת לאתר הנמצא בשרת הממוקם גיאוגרפית רחוק יותר, ייתכן שהוא יחווה Latency גבוהה יותר בשל הזמן שלוקח למידע לנסוע מרחק גיאוגרפי זה.

ישנן טכניקות שונות להפחתת Latency, כמו שימוש במטמוני נתונים (data caching), בחירת חיבורי אינטרנט מהירים יותר, ושימוש ברשתות תוכנה מבוססות (SD-WAN). ספקי שירותי אינטרנט רבים משקיעים בתשתיות וטכנולוגיות שמטרתן למזער את Latency כדי לשפר את חווית המשתמש. כאשר בונים אפליקציות ותשתיות תקשורת, חשוב תמיד לקחת בחשבון את ה-Latency ואיך היא עשויה להשפיע על חווית השימוש.


עוד מונחים שכדאי להכיר: 👇