Yapay Zeka Mühendisliği (YZM), makine öğrenmesi, derin öğrenme, doğal dil işleme, bilgisayarla görme, optimizasyon ve etik-AI yönetişimini bir araya getiren disiplinlerarası bir alandır. Lisansüstü düzeyde bir tez, yalnızca belirli bir modeli eğitmekten ibaret değildir; araştırma probleminin titizlikle formülasyonu, sağlam bir yöntem seçimi, şeffaf bir deneysel düzenek, yinelenebilirlik ve etik çerçevenin gözetilmesini gerektirir. Bu rehber, “yaptırma” değil, “kendi çalışmanı etik biçimde, akademik standartlara uygun nasıl inşa edersin” sorusuna kapsamlı, adım adım ve uygulamalı yanıt verir. Her bölüm, gerçekçi örnekler, kısa vaka çalışmaları ve pratik kontrol listeleri içerir.
1) Problem Tanımı: Araştırma Sorunu Nasıl Keskinleştirilir?
-
Yanlış örnek: “Bir sinir ağı kurup doğruluk bakacağım.” (Belirsiz, bilimsel katkı yok.)
-
Doğru örnek: “Türkçe sosyal medya verilerinde nefret söylemi tespiti için düşük örneklemli (few-shot) sınıflandırmada veri- verimli adaptasyon tekniklerinin doğruluk, F1 ve enerji tüketimi üzerindeki etkisini incelemek.”
-
Uygulama: Araştırma sorusunu (RQ) “hangi koşulda, kime göre, ne kadar” netliğiyle yazın. RQ’yu en az üç hipotezle destekleyin (H1: Yöntem A, düşük veri rejiminde B’den daha yüksek F1 sağlar; H2: A, eğitim süresinde %X kısalma sunar; H3: A’nın enerji tüketimi B’den %Y düşüktür.)
2) Literatür Taraması: Sistematik ve Odaklı Strateji
-
Yaklaşım: PRISMA benzeri sistematik akış; kapsama (coverage), yıl aralığı, alan (CS/AI), veri tabanları (ACM, IEEE Xplore, arXiv), anahtar sözcük kümeleri (örn. “few-shot text classification”, “Turkish hate speech”, “parameter-efficient fine-tuning”).
-
Vaka: İlgili 300 makaleden 40’ını kapsayan bir çekirdek liste; yöntemler (LoRA, Prompt Tuning), veri kümeleri (TRTweetHate örn.), metrikler (macro-F1, AUROC).
3) Araştırma Tasarımı: Deneysel Mimari Nasıl Kurulur?
-
Bağımsız değişken(ler): Yöntem türü (LoRA vs Full Fine-Tune), veri büyüklüğü (k=8,16,32), ön eğitimli model ailesi (BERTurk, RoBERTa-tr).
-
Bağımlı değişken(ler): Macro-F1, eğitim süresi, bellek kullanımı, enerji tüketimi (Watt ölçümü ya da nvidia-smi logları).
-
Kontrol: Aynı donanım (RTX 3090), sabit tohum (seed), aynı optimizasyon (AdamW), aynı erken durdurma kriterleri.
4) Veri Toplama ve Etik Onay
-
Yasal/etik: Kullanılan veri halka açık mı? Lisans koşulları? Hassas içerik barındırıyor mu? Anonimleştirme ve mahremiyet önlemleri neler?
-
Örnek: Twitter API ile çekilen verilerde kullanıcı adlarını hash’leyin; metinleri PII filtrelerinden geçirin; etik kurul yönergelerini belgeleyin.
5) Veri Hazırlama: Temizleme, Bölme, Dengeleme
-
Temizleme: Dil tespiti (tr), emojilerin normalize edilmesi, yinelenenlerin kaldırılması.
-
Bölme: Eğitim/validasyon/test (60/20/20); zaman sızıntısı riskine dikkat (örnekler kronolojik bölünsün).
-
Dengeleme: Dengesiz sınıflar için ağırlıklandırma veya SMOTE; metin için SMOTE-variant’ları dikkatle (embedding-uzayında yakınlık) uygulayın.
6) Ölçütler: Neden Sadece Doğruluk Yetersiz?
-
Neden: Dengesiz sınıflarda doğruluk aldatıcıdır. Macro-F1, sınıflar arası adaleti yansıtır.
-
Uygulama: Precision, Recall, F1; ROC ve PR eğrileri; maliyet-duyarlı ölçütler (örn. False Negative maliyeti).
7) Temel Yöntemler: Doğrusal ve Lojistik Regresyon Ne Zaman?
-
Doğrusal regresyon: Sürekli hedef değişken; hata varsayımları, çoklu doğrusal bağlantı (VIF) kontrolü.
-
Lojistik regresyon: İkili/sınıflı hedef; logit- link; dengesiz veri için sınıf ağırlıkları.
-
Uygulama: Kıyas için yalın bir lojistik regresyon kurun; daha karmaşık derin modeller için sağlam bir tabansağlar.
8) Düzenlileştirme: LASSO mu Ridge mi?
-
LASSO (L1): Özellik seçimine yatkın; seyrek çözümler.
-
Ridge (L2): Aşırı uyumu azaltır; tüm katsayıları küçültür.
-
Elastic Net: L1+L2 hibrit; yüksek korelasyonlu özelliklerde istikrarlı.
-
Uygulama: Grid aramasıyla λ süpürmesi; nested cross-validation ile sağlam seçim.
9) Özellik Seçimi: Filtre, Sarmalayıcı, Gömülü
-
Filtre: MI, chi-kare—modellerden bağımsız ön eleme.
-
Sarmalayıcı: RFE, ileri/geri seçim—hesap maliyeti yüksek ama etkili.
-
Gömülü: Ağaç tabanlı önem, L1 ceza; derin ağlarda attention/gradient tabanlı önem skorları.
-
Uygulama: Metin için TF-IDF n-gram + SVD; BERT-embedding + PCA; ardından RFE.
10) Çapraz Doğrulama: Kaç Kat, Nasıl?
-
k-kat: 5 ya da 10 kat; hiperparametre seçimi için iç döngü (nested CV).
-
Zaman serisi: Zaman bloklu CV; veri sızıntısını engeller.
-
Uygulama: Veri boyuna göre kat sayısı; standardizasyon ve vektörizasyon CV döngüsü içinde yapılır (leakage’i engellemek için).
11) Dengesiz Veri: SMOTE mi Ağırlıklandırma mı?
-
SMOTE: Azınlık sınıfı çevresinde sentetik örnek; sınır/ses duyarlılığı.
-
Ağırlıklandırma: Kayıp fonksiyonunda sınıf ağırlıkları; derin ağlarda focal loss.
-
Pratik: Önce sınıf ağırlıklarıyla deneyin; aşırı SMOTE, karar sınırını bozabilir. İki yaklaşımı doğrulama setindekıyaslayın.
12) Derin Öğrenme: Mimariler ve İnce Ayar
-
Transformers: BERTurk, Electra-tr; parametre-verimli ince ayar (LoRA, Prefix/Prompt Tuning).
-
CNN/RNN tabanlılar: Daha hafif, dar kaynaklarda faydalı.
-
Uygulama: Öğrenme hızı taraması (LR range test), erken durdurma, ağırlık çürümesi, veri büyütme (synonym swap, back-translation dikkatli).
13) Deneylerin İzlenebilirliği ve Yinelenebilirlik
-
Araçlar: MLflow/Weights&Biases; rastgelelik tohumları; konfigürasyon dosyaları (YAML).
-
Raporlama: Donanım, yazılım sürümleri, eğitim süresi, enerji tüketimi; CO₂ ayak izi tahmini (etik boyut).
14) Sonuçların İstatistiksel Anlamlılığı
-
Testler: Eşleştirilmiş t-testi, Wilcoxon; etki büyüklüğü (Cohen’s d).
-
Güven aralıkları: Bootstrap ile performans dağılımı.
-
Uygulama: Yalnızca tek koşu değil, çoklu tekrar ve varyans raporu.
15) Hata Analizi ve Adalet (Fairness)
-
Hata türleri: Yanlış pozitif/negatif örneklerin nitel analizi.
-
Adalet göstergeleri: Demografik parite, eşit fırsat; alt gruplar arası performans farkı.
-
Uygulama: Türkçe lehçeler, sosyo-leksik varyasyonlar için alt-küme metrikleri.
16) Model Açıklanabilirliği ve Güven
-
Araçlar: SHAP, LIME, Integrated Gradients.
-
Amaç: Model kararlarının anlaşılır kılınması; paydaş güveni.
-
Uygulama: Nefret söylemi örneklerinde hangi kelime/kalıpların kararı sürüklediğini görselleştirin.
17) Üretime Hazırlık: MLOps Prensipleri
-
Sürümleme: Model ve veri sürümleri; semantik versiyonlama.
-
Takip: Gözetim (drift, veri kalitesi), otomatik uyarılar.
-
Uygulama: Basit bir REST servisi; gizlilik ve güvenlik kontrolleri; model kartları ile etik dokümantasyon.
18) Akademik Yazım: İntihalden Kaçınma ve Atıf Disiplini
-
İntihal: Alıntıların tırnak içinde ve kaynaklı verilmesi; parafrazın bile atıf gerektirdiği bilinci.
-
Kaynakça: BibTeX, CSL; dergi/üniversite şablonları.
-
Uygulama: Otomatik benzerlik araçlarını yalnızca ön kontrol için kullanın; etik beyan ekleyin.
19) Bulguların Sunumu: Şekil, Tablo, Ekler
-
İyi pratik: Şekillerde hata çubukları, tablo başlıklarında açıklık, model/dataset sürümleri kutu içinde belirtme.
-
Ekler: Ayrıntılı hiperparametre tabloları, veri ön işleme pipeline’ları, kod bağlantıları (anonim repo).
20) Zaman Planı ve Risk Yönetimi
-
Plan: T-20 hafta diyagramı: literatür (4), veri (4), modelleme (6), yazım (4), revizyon (2).
-
Riskler: Veri erişimi, donanım, etik onay gecikmesi; B planı (daha küçük model, alternatif veri, simülasyon).
Sonuç
Bu rehber, Yapay Zeka Mühendisliği alanında kendi tezinizin mimarı olmanız için bütüncül bir yol haritası sundu: araştırma sorusunun keskinleştirilmesinden yöntem seçimine; dengesiz veriyle başa çıkmaktan çapraz doğrulamaya; LASSO/Ridge tercihlerinden adalet ve açıklanabilirliğe; MLOps ve etik raporlamadan intihalden kaçınmaya kadar… Amaç, bir “hizmet”e işi devretmek değil, akademik özerklik ve araştırma yetkinliği kazanmanızdır. Metindeki kontrol listelerini, örnek hipotezleri, deneysel protokolleri ve raporlama kalıplarını kendi bağlamınıza uyarlayarak kullanın. Böylece ortaya koyduğunuz çalışma, yinelenebilir, denetlenebilir, adil ve etkili olacak; bilime katkı üretirken akademik bütünlüğünüzü de koruyacaktır.