Tezlerde en sık görülen ve en çok yanlış anlaşılan tekniklerden biri normallik testidir. Çoğu öğrenci (ve ne yazık ki kimi raporlar), normallik testini “yola çıkmadan önce mecburî bir bariyer” gibi görür: Shapiro–Wilk/KS p<.05 çıktıysa “parametrik yöntem yasak”; p>.05 ise “her şey mübah.” Oysa mesele bu kadar basit değildir.

-
Neyi normal sayıyoruz? Değişkenin dağılımını mı, artıkların dağılımını mı?
-
Hangi model bağlamında normal dağılım gerekiyor? Doğrusal regresyon mu, lojistik mi, çok düzeyli mi, SEMmi?
-
Örneklem büyüklüğü (n) kaç? Büyük n’de küçük sapmalar bile p<.05 olur; küçük n’de testin gücü düşer ve hatalı “normal” kararı verilebilir.
-
Likert gibi sıralı ölçümler için “normal mi?” sorusunu hiç sormamak bile gerekebilir; zira “normal” dili baştan uygunsuz olabilir.
-
Çok değişkenli (multivariate) senaryolarda “tek tek normal” olmak yetmez; kovaryans yapısı da devreye girer.
1) Normallik Nedir, Ne Değildir? “Değişken mi Artık mı?”
-
Değişken normalliği: Veri ham dağılımının çan eğrisi benzeri olması.
-
Artık normalliği: Kurduğunuz modelin hata (residual) terimlerinin normal dağılması.
Bilimsel karar çoğu kez artık düzeyinde verilir; özellikle doğrusal regresyon ve ANOVA türlerinde kritik olan “Y|X artıklarının normalliği”dir. Değişkenin ham dağılımının “normal” olması tek başına bir şey garanti etmez; asıl mesele model sonrasında kalan hatanın dili.
2) Model Ailesine Göre Normallik “Zorunluluğu”
-
Doğrusal regresyon/ANOVA: Küçük–orta örneklemde artıkların normalliği önemlidir. Büyük örneklemde merkezi limit mantığı devreye girer; “mükemmel normallik” şart değildir.
-
Lojistik/sayım/sıralı GLM: Normallik beklenmez. Burada uygun bağlantı (lojit, probit, vb.) ve dağılım dili (binom, Poisson, negatif binom) esastır.
-
Çok düzeyli (HLM/GLMM): Alt katmanda hataların/rasgele etkilerin dağılımı önemlidir; saf “normallik” yerine makul dağılım ve dayanıklı hata öncelenir.
-
SEM/CFA: Klasik ML tahmininde çok değişkenli normallik varsayımı vardır; pratikte robust (MLR) ya da WLSMV gibi sağlam tahmincilerle normalliğe duyarlılık azaltılır.
3) Küçük n – Büyük n İkilemi: “p-Değerinin Tuzağı”
-
Büyük n: Çok küçük sapmalar bile Shapiro–Wilk/KS testlerinde p<.05 verir. Bu “pratikte önemsiz” bir çarpıklığı “teknik olarak anormal” kılar.
-
Küçük n: Testin gücü zayıf; bariz anormallikler bile “anlamlı değil” çıkabilir (yanlış güven).
Karar dili: Testleri tek hakim yapmayın; bağlam, grafik okuma (sözlü betim), etki büyüklüğü, dayanıklı alternatif ve bootstrap ile birleşik karar verin.
4) Shapiro–Wilk mi, Kolmogorov–Smirnov mu, Anderson–Darling mi?
-
Shapiro–Wilk (SW): Küçük/orta n için güçlü.
-
Kolmogorov–Smirnov (KS): Parametreler veriden tahmin edildiğinde muhafazakâr olmayan sonuçlar verebilir; yorumda dikkat.
-
Anderson–Darling (AD): Kuyruklara daha duyarlı; n göreceli büyükse tercih edilebilir.
Kısa reçete: Küçük/orta n + tek değişkenli bağlamda SW; kuyruk hassasiyetinde AD. KS’yi kör kullanmayın; bağlam yazın.
5) “Q–Q grafiği gösterecek miyim?” Yerine “Sözlü Q–Q”
Tablo/figür kullanmayacağız; fakat Q–Q grafiği zihnini sözle canlandırabilirsiniz:
-
“Alt kuyruk verisi beklenenden daha seyrek; üst kuyruk yoğun.”
-
“Orta bant iyi; uçlarda şişkinlik var.”
Bu betim, jüride “görmeden ikna” sağlar. Not: Sözlü Q–Q anlatısı, test p-değeriyle birlikte sunulduğunda güçlüdür.
6) Dönüşüm (Log, Karekök, Box–Cox) ve Anlam Dili
Ham dağılım çok sağa çarpıksa log; sayım türünde karekök vb. dönüşümler denenebilir. Ancak dönüşüm anlam dilinideğiştirir: Yüzde etkiler, oranlar gibi yeni bir dünya açar.
Rehber cümle: “Y yorumunu yüzde değişim diline çevirmek istiyoruz; bu nedenle log dönüşümü tercih edildi.”
7) Dayanıklı Yaklaşımlar ve Bootstrap
Normallik kusurluysa karar durmaz:
-
Dayanıklı (robust) standart hatalar,
-
Bootstrap güven aralıkları (özellikle küçük n ve asimetrik etkilerde),
-
Welch–ANOVA (varyans eşitliği ve normallik gevşekliği için),
-
Mann–Whitney/Kruskal–Wallis (ölçme düzeyi ve dağılım uygunluğuna bakarak),
-
Permütasyon testleri (etiket değiş-tokuş mantığıyla p üreten).
Yol haritası: Parametrik—dayanıklı—parametrik-dışı üçlüsünü öncelik sırasına değil bağlama göre seçin.
8) Likert ve Sıralı Ölçümler: “Normal mi?” Sorusu Çoğu Kez Yanlış
Likert veriler sıralıdır; kategori sayısı azsa “normal” beklentisi anlamsızlaşır. Burada normallik yerine uygun model(sıralı lojistik, WLSMV ile CFA) ve eşik (threshold) dili esastır.
Pratik: 5’lik Likert toplam puanı geniş n’de “yaklaşık sürekli” davranabilir; küçük n’de sıralı doğaya uygun yöntem seçmek daha sağlıklı olur.
9) Tek Değişkenli vs Çok Değişkenli Normallik
-
Tek değişkenli (univariate): SW/AD ile bakarsınız; Q–Q anlatısı eklersiniz.
-
Çok değişkenli (multivariate): Mardia tipi çarpıklık/basıklık ölçüleri veya robust alternatifler konuşulur. SEM/CFA’da MLR (robust ML) veya WLSMV gibi tahminciler, çok değişkenli normalliğe aşırı bağımlılığıazaltır.
Rapor dili: “Çok değişkenli normallik varsayımı, robust tahmin yaklaşımıyla gevşetilmiş; bulgular MLR/WLSMV çerçevesinde raporlanmıştır.”
10) Grup Karşılaştırmalarında Normallik: t/Welch/Mann–Whitney
-
t-testi/ANOVA: Artıkların normalliği ve varyans eşitliği önemlidir; eşitlik yoksa Welch tercih edilebilir.
-
Parametrik-dışı: Mann–Whitney/Kruskal–Wallis, dağılım şekli benzerliği ve ölçme düzeyi uyumluysa anlamlı alternatiftir.
Çok önemli: Büyük n’de küçük sapmalar yüzünden parametriği terk etmeyin; Welch + robust çoğu zaman daha güçlü ve adildir.
11) Regresyonda Normallik: Artıklar Ön planda, GLM’de Beklenti Yok
Doğrusal regresyonda artık dağılımını düşünün; log–log ya da Box–Cox tarzı dönüşümler ilişkileri doğrusal dile çekebilir. Lojistik/sayımda normallik aramayın; aşırı saçılma, bağlantı ve olasılık yorumuna odaklanın.
Hazır cümle: “Doğrusal modelde artık dağılımı temkinle değerlendirilmiş; GLM bağlamında normallik beklentisi yerini uygun bağlantı/dağılım diline bırakmıştır.”
12) Çok Düzeyli (HLM/GLMM) Bağlam: Rasgele Etki ve Makul Varsayımlar
Kümelenme (sınıf/servis/şirket) varsa, “bağımsız gözlem” varsayımı bozulur. Normallik, artık yerine çoğu kez rasgele etkilerin “makul dağılımı”na indirgenir; küçük küme sayısında bootstrap veya küme-robust hatalarla belirsizlik dürüstçe verilir.
13) SEM/CFA: ML mi MLR mı WLSMV mi?
-
ML (klasik): Çok değişkenli normalliğe duyarlı; örneklem büyük ve dağılım makulse kabul edilebilir.
-
MLR (robust ML): Standart hataları ve ki-kare istatistiğini normallik dışı durumlara karşı sağlamlaştırır.
-
WLSMV: Özellikle sıralı göstergelerde önerilir; eşik/yük dilini doğrudan işler.
Karar: Likert–sıralı veride ve/veya çarpıklı dağılımda WLSMV/MLR çoğu tez için birincil tercih.
14) Permütasyon Testleri: Basit, Esnek, İkna Edici
Etiketleri (grup atamalarını) rastgele değiş-tokuş ederek p-değeri üretmek, özellikle küçük n ve şekilsiz dağılımlarda şahane bir seçenektir. “Hiçbir dağılım varsayımına yaslanmadan gruplar arası fark var mı?” sorusuna sade bir yanıt verir.
Not: Atama mekanizmasının mantıklı olmasına dikkat; kümelenmiş tasarımda permütasyon kümeler içinde yapılmalıdır.
15) Hata–Düzeltme Kutusu — Klişeler ve Çözümler
-
Hata: “KS p<.05, parametrik yasak.”
Düzeltme: Büyük n’de bu beklenen; Welch/robust/Bootstrap ile devam edebilirsiniz. -
Hata: Likert toplamına SW yapıp p<.05 diye sıralı modeli görmezden gelmek.
Düzeltme: Ölçme düzeyini önce seç; WLSMV/ordinal lojistik düşün. -
Hata: Regresyonda değişkenin normalliğine bakıp yetinmek.
Düzeltme: Artıklara odaklan; dönüşüm veya GLM diliyle ilerle. -
Hata: SEM’de ML’ye saplanıp fit kötüleşince şaşırmak.
Düzeltme: MLR/WLSMV seç; normallik duyarlılığını düşür. -
Hata: Küçük n’de “normal” çıktı diye emin olmak.
Düzeltme: Güç düşüktür; Q–Q anlatısı, bootstrap ve duyarlılık ekle.
16) Kontrol Listesi — Normallik Karar Mimarisi
-
Model ailem ne? (Doğrusal/GLM/Çok düzeyli/SEM)
-
Artık mı değişken mi değerlendiriyorum?
-
n büyük mü küçük mü? p-değerini bu bağlamda okuyorum mu?
-
Ölçme düzeyi ne? (Sıralı–Likert ise parametrik “normal” dili yerine uygun model)
-
SW/AD sonucu + sözlü Q–Q betimi var mı?
-
Dönüşüm/anlam dili değişimi gerekiyorsa raporda açık mı?
-
Dayanıklı (Welch/robust/Bootstrap/permütasyon) alternatif planım var mı?
-
Çok değişkenli/SEM’de MLR/WLSMV gerekçem yazılı mı?
-
Kümelenme varsa küme-robust/çok düzeyli çerçeve kurulu mu?
17) Hazır Rapor Paragrafları (Kopyalayıp Uyarlayın)
-
“Normallik değerlendirmesi artık düzeyinde yapılmış; Shapiro–Wilk ve sözlü Q–Q betimi küçük sapmaların büyük örneklemde p<.05 verebileceğini gözeterek yorumlanmıştır.”
-
“Likert temelli göstergeler için sıralı doğa kabul edilmiş; SEM’de WLSMV/MLR tahminci ile normallik duyarlılığı azaltılmıştır.”
-
“Varyans eşitliği ihlalinde Welch yaklaşımı; belirsizlik için robust standart hatalar ve bootstrap güven aralıkları raporlanmıştır.”
-
“Regresyonda ham dağılım yerine artıkların normalliği dikkate alınmış; dönüşüm sonrası yorum yüzde değişimdiline çevrilmiştir.”
-
“Kümelenmiş yapıda normallik testi yerine küme-robust hata ve çok düzeyli çerçeve tercih edilmiştir.”
18) Uygulamalı Senaryo A — Eğitim: Program Etkisi (t/Welch + Regresyon)
Durum: Y: dönem sonu başarı (sürekli), X: program katılımı + öz-düzenleme. 6 sınıf var (kümelenme).
Akış:
-
Sınıflar arası bağımlılık nedeniyle küme-robust hatalar,
-
Başarı dağılımı sağa çarpık → log dönüşümle yüzde etkisi yorumu,
-
Artıklar için sözlü Q–Q: orta bant iyi, üst kuyruk şişkin;
-
Grup kıyasında varyans eşitliği bozulduğu için Welch.
Rapor dili: “Küme-robust ve Welch sonuçları tutarlı; program etkisi, log-yorumda %… düzeyindedir; küçük sapmalar büyük n’de anlamlılık üretse de sonuç mesajı değişmemiştir.”
19) Uygulamalı Senaryo B — Klinik: Tükenmişlik (SEM/CFA, WLSMV)
Durum: Tükenmişlik ölçeği 5’li Likert; alt boyutlar ve genel faktör testi; iki hastane grubu.
Akış:
-
Sıralı göstergeler → WLSMV; çok değişkenli normallik dayatılmadı,
-
Grup karşılaştırması öncesi ölçüm değişmezliği (kısmi skaler) tartışıldı,
-
Bulgular robust fit indeksleriyle raporlandı.
Rapor: “Normallik, sıralı tahminciyle bağlam dışı olmaktan çıkarıldı; kalibrasyon farkları giderildikten sonra grup ortalamaları adil biçimde kıyaslandı.”
20) Uygulamalı Senaryo C — KOBİ: Satış (Sayım/GLM + Permütasyon)
Durum: Y: haftalık satış siparişi (sağa çarpık/sayım), X: dijital kampanya, M: içerik sıklığı.
Akış:
-
Negatif binom yaklaşımı (aşırı saçılma),
-
Normallik yerine bağlantı/dağılım uygunluğu; dayanıksız noktalar için permütasyon duyarlılığı,
-
Etkinin yüzde değişim diliyle anlatımı.
Rapor: “Kampanya etkisi %… artışla ilişkilidir; permütasyon ve bootstrap aralıklarında mesaj değişmez.”
21) Uygulamalı Senaryo D — Sıralı Memnuniyet (Paralel Eğim + Kısmi)
Durum: 1–5 memnuniyet; “hız”, “netlik”, “kalite” öngördürücüleri.
Akış:
-
Normallik aramak yerine sıralı lojistik,
-
Paralel eğim varsayımı bozulduğu değişkenlerde kısmi gevşetme,
-
Etki, “üst kategoriye geçiş ihtimali artıyor” diliyle rapor.
Rapor: “Kalite en güçlü; hız alt kategorilerde etkili ama üst kategori eşiğinde zayıflıyor. Kısmi paralel eğim ile sonuç kararlıdır.”
22) Büyük n’de Küçük Sapma: “İstatistiksel ≠ Pratik”
n=2.000 gibi bir örneklemde SW p<.001 görmek sıradan. Burada “etki büyüklüğü” ve uygulama anlamı konuşulur: dağılım hafif çarpıksa Welch + robust ile ilerlemek ve anlatıyı insan diline çevirmek, “parametrikten vazgeçtim” demekten daha doğru olabilir.
23) Küçük n’de Büyük Belirsizlik: “Temkinli Dil + Bootstrap”
n=25 gibi küçük bir örneklemde SW p=.20 “normal” demek değildir; güç düşük olabilir. Burada Q–Q betimi, aykırı etkisi ve bootstrap aralıkları ile temkinli bir anlatı kurun: “Bulgular, yön olarak tutarlıdır; belirsizlik yüksektir.”
24) Kayıp Veri Etkisi: Liste Dışı Bırakmanın Yanlılığı
Liste dışı bırakma (listwise) dağılımı değiştirir; normallik testleri farklı sonuç verebilir. Çoklu atama ile kaybı yönetmek, ardından her atamada normallik ve model kontrollerini tekrarlamak gerekir.
Rapor: “Kayıp veri MI ile yönetilmiş; normallik değerlendirmesi ve dayanıklı yaklaşımlar atama setleri arasında kararlıbulunmuştur.”
25) Duyarlılık Analizleri: “Sars ve Kalsın”
-
SW ↔ AD sonuçları,
-
Dönüşüm öncesi ↔ sonrası anlatı,
-
Parametrik (Welch) ↔ parametrik-dışı (permütasyon/Mann–Whitney),
-
Bootstrap tekrar sayısı değişimi (2.000 → 5.000),
-
SEM’de ML ↔ MLR/WLSMV kıyası.
Amaç: Normallik seçiminin sonuca hükmedip etmediğini göstermek.
26) Politika–Uygulama Köprüsü: Metodoloji Kararını Karara Çevirin
-
Eğitim: “Program etkisi, sınıf kümelerinden bağımsız olarak sürüyor; log yorumunda yüzde artış diline çevrildi.”
-
Sağlık: “Tükenmişlik ölçeği sıralı olduğundan WLSMV ile adil kıyas; müdahale hedefi ‘denetim algısı’ ve ‘sosyal destek’.”
-
KOBİ: “Negatif binom + permütasyon kararı, kampanya etkisinin dayanıklı olduğunu gösteriyor; B2C’de hızlı içerik, B2B’de süreç dijitalleşmesi.”
27) Açık Bilim ve Denetlenebilirlik: Normallik Günlüğünüz
-
Hangi test(ler)i neden seçtiniz (SW/AD/KS)?
-
Q–Q sözlü betiminiz neyi işaret etti?
-
Dönüşüm yaptıysanız anlam dilini nasıl değiştirdiniz?
-
Parametrik yerine dayanıklı/parametrik-dışı seçtiğinizde sonuç nasıl korundu?
-
SEM’de MLR/WLSMV gerekçeniz nedir?
Bu günlük, jüride güven üretir.
28) Sık Sorulara Hızlı Cevaplar
-
“Normallik bozuldu, ne yapayım?” Dayanıklı hata, Welch/robust, dönüşüm, bootstrap, permütasyon, uygun GLM/SEM tahmincisi.
-
“Likert toplamını normal sayabilir miyim?” n ve kategori sayısına bağlı; küçük n’de sıralı dille gitmek daha dürüst.
-
“Büyük n’de SW hep p<.001 çıkar; ne yapayım?” Etki büyüklüğü + Welch/robust + anlam dili.
-
“SEM fit kötü, normallik?” MLR/WLSMV düşün; ölçüm modelini gözden geçir.
-
“Kümelenme var, normallik?” Küme-robust/çok düzeyli; normallik yerine bağımlılık diline odaklan.
29) “İnsan Dili” ile Sonuç Yazmak
-
“Dağılım hafif sağa çarpık; bu nedenle sonuçları yüzde değişim diliyle raporladık.”
-
“Sıralı veride ‘üst kategoriye geçiş olasılığı’ ortak dilimiz.”
-
“Küçük örneklem belirsiz; bootstrap ile aralık verdik; mesaj yönü değişmiyor.”
-
“SEM’de sıralı gösterge nedeniyle WLSMV seçtik; grup kıyasını kalibrasyon eşitliğini sağlayarak yaptık.”
30) Kapanış: Normallik Testi Bir “Geçiş Kapısı” Değil, Bağlama Duyarlı Bir Bileşen
Normallik testini otomatik “geç/kaldı” bariyerinden çıkarıp bağlama duyarlı karar mimarisine dönüştürdüğünüzde, tezinizi hem dürüst, hem ikna edici kılarsınız. Esas soru, “p kaç?” değil; “Hangi model dilinde, hangi örneklem koşulunda, hangi ölçme düzeyinde normallik/sağlam yaklaşım bana en adil yorumu verir?” olmalıdır. Bu soruya sistematik yanıt verdiğinizde, jüride “şekilcilik” yerine bilimsel muhakeme sunar, sonuçlarınızı “istatistik”ten karara taşımış olursunuz.
Sonuç
Bu yazı, tezlerde normallik testi yöntem seçimini uçtan uca yapılandırdı:
-
Normalliği artık mı değişken mi düzeyinde arayacağınızı belirleyin.
-
Model ailesine göre normalliğin zorunluluk düzeyi değişir: doğrusal/ANOVA’da artık; GLM’de bağlantı/dağılım; SEM’de MLR/WLSMV.
-
Büyük n p-değerlerini abartmayın, küçük n “normal” sonuçlarını da totemleştirmeyin; Q–Q betimi, dayanıklıyaklaşımlar ve bootstrap ile birleşik karar verin.
-
Likert/sıralı veride “normal” aramak yerine uygun model dili kullanın.
-
Grup kıyaslarında Welch/robust ve gerekirse parametrik-dışı veya permütasyon tercih edin.
-
Kümelenmiş ve çok düzeyli senaryolarda normallik yerine bağımlılık ve rasgele etki diline odaklanın.
-
Rapor dilini insanlaştırın; dönüşüm yaptıysanız anlam değişimini açıklayın; denetlenebilirlik için “normallik günlüğü” tutun.
Son söz: Normallik testi, “girer–geçersin” kapısı değil; adil sonuç üreten karar mimarisinin bir parçasıdır. Doğru bağlamda, doğru yöntemle ve doğru dille kullanıldığında, tezinizi şekilcilikten çıkarıp bilimsel muhakemenin yanına taşır.