יום שישי, 30 בינואר 2026

מבחן לשוויון שונויות: למה הסטטיסטיקה שואלת אם הבלגן הוגן

דמיינו שלושה סירים על הכיריים.
בכולם אותו מתכון.
אותם חומרים.
אותו שף.

אבל כשאתם טועמים
בסיר אחד הטעם תמיד “בערך אותו דבר”,
בשני — פעם מעולה פעם אסון,
ובשלישי — כאוס מוחלט.

ואז מגיע הסטטיסטיקאי ושואל שאלה מוזרה:

רגע
האם רמת הבלגן דומה בין הסירים?”

ברוכים הבאים ל־מבחן לשוויון שונויות

מה זו בכלל שונות?

שונות לא שואלת:

  • מה הממוצע
  • מי יותר טעים

היא שואלת:

עד כמה התוצאות מתפזרות.

כלומר:

  • האם כולם קרובים לאותו ערך
  • או שכל אחד עושה מה שבא לו

מעט שונות = משמעת.
הרבה שונות = בלגן.

אז למה בכלל לבדוק שוויון שונויות?

כי הרבה מבחנים סטטיסטיים (כמו ANOVA)
אומרים בשקט:

אני עובד יפה
רק אם רמת הבלגן דומה בכל הקבוצות.”

אם קבוצה אחת מאוד יציבה
והשנייה מתנהגת כמו מטבח ביום שישי
המסקנות עלולות להתעוות.

דוגמה מהמטבח

נניח שאתם משווים:

  • שלושה שפים
  • אותו מתכון
  • ומודדים ציון טעם

אם:

  • השף הראשון תמיד סביב 8–9
  • השני בין 6 ל־10
  • השלישי בין 2 ל־10

אז גם אם הממוצעים דומים
ההתנהגות לא.

ומבחן לשוויון שונויות אומר:

חבר’ה,
זה לא אותו סוג של בלגן.”

מי בודק את זה בשבילנו?

בלי להיכנס לנוסחאות:

  • Levene  -רגוע, סלחני, אוהב מציאות
  • Bartlett  -רגיש, אוהב נורמליות, נעלב בקלות

ישנם מבחנים נוספים

שניהם שואלים:

האם הפיזור דומה
או שמישהו כאן משתולל יותר מהאחרים?

ומה אם השונויות לא שוות?

לא פאניקה.

הסטטיסטיקה לא אומרת:
הכול פסול

היא אומרת:
️ “תתאים את הכלי

יש:

  • גרסאות מתוקנות של  ANOVA
  • מבחנים אלטרנטיביים
  • ופתרונות שלא מתעלמים מהבלגן

הבעיה היא לא שונות
הבעיה היא להעמיד פנים שאין אותה.

סיכום ביסי

מבחן לשוויון שונויות לא שואל:

מי הכי טוב?”

הוא שואל:

האם כולם משחקים באותה רמת אי־סדר?”

ובסטטיסטיקה, כמו במטבח:

להשוות ממוצעים
בלי לבדוק את הבלגן

זה מתכון לצרות 

יום שישי, 23 בינואר 2026

R² ברגרסיה: למה הוא מרשים, למה הוא מטעה — ומה Adjusted R² וחיזוי אמיתי באים לתקן

זה קורה כמעט בכל מצגת.

מישהו מראה רגרסיה,
מצביע על מספר ואומר בגאווה:

“R² = 0.91.”

והקהל?
מתרשם.
מהנהן.
לפעמים כבר משתכנע.

אבל רגע לפני שמגישים את העוגה
כדאי להבין מה באמת מסתתר מאחורי המספר הזה.

אז מה זה R², בפשטות?

 מודד:

איזה חלק מהשונות ב־Y
המודל מצליח להסביר
בעזרת המשתנים שבחרנו.

אם  R² = 0.8

80%  מהשונות בנתונים
מיוחסת למודל.

זה הכול.

לא:

  • אם המודל נכון
  • לא אם הוא סיבתי
  • ולא אם הוא ינבא טוב מחר

דוגמה מהמטבח

נניח שאנחנו מנסים להסביר:
ציון טעם של עוגה

בעזרת:

  • זמן בתנור
  • טמפרטורה

אםגבוה:

כנראה ששני המשתנים האלה
באמת מסבירים חלק גדול מההבדלים בטעם.

אבל
זה עדיין הסבר, לא חיזוי.

למהכל כך מרשים?

כי הוא:

  • מספר אחד
  • בין 0 ל־1
  • גדול = “נראה טוב

גבוה נותן תחושה ש:
️ “תפסנו את הסיפור
️ “המודל חזק
️ “אפשר לסמוך עליו

וכאן מתחילות הבעיות.

למהעלול להטעות?

 תמיד אוהב עוד משתנים

אם נוסיף עוד ועוד משתנים
 כמעט תמיד יעלה.

גם אם:

  • הם לא חשובים
  • הם מקריים
  • או שהם עובדים רק על המדגם הזה

העוגה גדלה  —
גם אם הוספנו רק קצפת.

כאן נכנס  Adjusted R²

Adjusted R² שואל שאלה חכמה יותר:

האם השיפור בהסבר
באמת מצדיק את המורכבות שהוספנו?

הוא:

  • מעניש” על משתנים מיותרים
  • יכול לרדת כשמודל מסתבך סתם
  • נותן תמונה יותר הוגנת

אם:

  •  עולה
  • אבלAdjusted R²  לא

זה סימן אזהרה 🚨

 גבוה ≠ חיזוי טוב

וזו אולי הטעות הכי נפוצה.

 מודד:

כמה טוב המודל מסביר
את הנתונים שכבר ראינו.

אבל חיזוי אמיתי שואל:

איך המודל יתנהג
על נתונים חדשים לגמרי?

אפשר:

  •  גבוה
  • וחיזוי גרוע

במיוחד אם:

  • יש  overfitting
  • המדגם קטן
  • או שהעולם השתנה

שוב המטבח

מודל עם R² = 0.95 אומר:

אני מסביר מצוין את העוגות שכבר אפינו.”

חיזוי טוב אומר:

אני יודע מה יקרה
בעוגה הבאה.”

וזו שאלה הרבה יותר קשה.

אז מה כן עושים?

לא זורקים את  .
פשוט לא סוגדים לו.

משתמשים בו:
יחד עם  Adjusted R² 
יחד עם בדיקת שאריות
יחד עם ולידציה / נתוני בדיקה
ועם היגיון תחומי

 הוא התחלה  —
לא פסק דין.

סיכום ביסי

 עונה על שאלה אחת בלבד:

כמה מהשונות
הצלחתי להסביר כאן ועכשיו?”

Adjusted R²  שואל:

האם לא הסתבכתי סתם?”

וחיזוי אמיתי שואל:

האם זה יעבוד גם מחר?”

ובסטטיסטיקה, כמו במטבח:

עוגה שמרשימה על השיש
לא תמיד יוצאת טוב בפעם הבאה  

יום שישי, 16 בינואר 2026

מובהקות סטטיסטית: למה כולם מתרגשים — ולמה צריך להיזהר

זה קורה כל הזמן.

מישהו מציג תוצאה,
מראה מספר קטן,
ואומר בביטחון:

זה מובהק סטטיסטית.”

והקהל?
מהנהן.
מתרשם.
לפעמים אפילו משתכנע.

אבל כאן בדיוק מתחילה הבעיה.

אז מה זו בכלל מובהקות סטטיסטית?

בצורה הכי פשוטה:

מובהקות סטטיסטית אומרת:

אם באמת אין אפקט,
אז הסיכוי לראות תוצאה כזו (או קיצונית יותר)
הוא נמוך.

זה הכול.

לא:

  • כמה האפקט גדול
  • כמה הוא חשוב
  • האם הוא שימושי
  • או אם כדאי לשנות בגללו החלטות

רק:

זה כנראה לא קרה במקרה.”

 דוגמה מהמטבח

נניח שאתם משנים מתכון:

  • מוסיפים חצי גרם מלח
  • מודדים את ציון הטעם
  • עם המון טועמים

התוצאה:
שיפור זעיר בטעם  
אבל עם מדגם גדול מספיק:

מובהק

האם מישהו באמת ירגיש את זה בצלחת?
כנראה שלא.

אבל הסטטיסטיקה?
מאוד מתרשמת.

למה מובהקות כל כך מרשימה?

כי היא:

  • נותנת תשובה בינארית (כן/לא)
  • נשמעת מדעית
  • קלה לתקשור
  • ועובדת מצוין בכותרות

p < 0.05
מרגיש כמו חותמת איכות.

אבל זו חותמת על מה בדיוק?

 

ולמה היא גם מסוכנת?

מובהק ≠ חשוב

אפשר לקבל מובהקות:

  • עם אפקט זניח
  • שלא משנה שום דבר בפועל

לא מובהק ≠ אין אפקט

יכול להיות אפקט אמיתי:

  • אבל מדגם קטן
  • או רעש גדול

והסטטיסטיקה פשוט לא “רואה” אותו.

אפשר לשחק עם זה

עוד משתנה,
עוד תת־קבוצה,
עוד בדיקה

ובסוף:

מצאנו מובהקות!”

הסטטיסטיקה לא שקרנית.
אנשים לפעמים כן.

מה מובהקות כן אומרת לנו?

היא אומרת:

התוצאה הזו לא נראית מקרית לגמרי  
בהנחות שבחרנו.”

וזה מידע חשוב.
אבל חלקי.

בלי:

  • גודל אפקט
  • אי־ודאות
  • הקשר
  • והיגיון תחומי

זו חצי תמונה.

סיכום ביסי

מובהקות סטטיסטית היא:

  • כלי חשוב
  • אינדיקציה טובה
  • אבל לא היעד עצמו

היא מרשימה
כי היא פשוטה.

היא מסוכנת
כי היא מפתה אותנו לעצור שם.

ובסטטיסטיקה, כמו במטבח:

לא כל מה שעובר סף,  
באמת שווה להגיש  

הטעות הסטטיסטית הכי יקרה שאתם עושים — ואתם אפילו לא יודעים

תארו לעצמכם שאתם מנהלים מסעדת שף. בסוף הערב, אתם עוברים על הצלחות שחזרו מהשולחנות למטבח כדי להבין מה הלקוחות אהבו. אתם רואים שהצלחות של הסטי...