Zekâ mı, Veri mi?


Yapay Zekânın Akıbetini Belirleyen Girdilerin Eleştirel Analizi

Özet

Yapay zekâ sistemlerinin karar alma süreçleri, büyük ölçüde beslendikleri verilere bağlıdır. Ancak bu veriler, her zaman objektif, doğru veya etik kaynaklardan gelmeyebilir. Bu makalede, yapay zekâya sunulan girdilerin çeşitliliği ve bu girdilerin içerdiği önyargılar, eksiklikler, temsil sorunları eleştirel bir bakış açısıyla tartışılmaktadır. Veri kalitesinin yanı sıra, veri üretim sürecinin sosyal ve politik arka planı da incelenerek, algoritmaların tarafsızlığına dair hâkim söylemler sorgulanmaktadır.


1. Giriş

Makine öğrenmesi ve yapay zekâ teknolojilerinin yükselişi, onları besleyen veri setlerinin hacmiyle doğru orantılıdır. Ancak yaygın inancın aksine, daha fazla veri her zaman daha iyi sonuç anlamına gelmemektedir. Verinin niteliği, doğruluğu, çeşitliliği ve temsil kabiliyeti; algoritmanın çıktısını doğrudan etkiler. Bu bağlamda “veri nötrdür” anlayışı ciddi biçimde tartışmaya açıktır. Peki, yapay zekâ ne kadar tarafsızdır? Cevap, verinin kendisinde gizlidir.


2. Girdi Çeşitliliği: Görünenin Ardındaki Eksiklikler

Veriler genellikle yapılandırılmış, yapılandırılmamış, etiketli ve etiketsiz olarak sınıflandırılır. Ancak bu kategoriler, verinin içerdiği önyargı, eksik temsil ve sosyal bağlamdan soyutlanmış halidir.

  • Temsil Sorunu: Sosyoekonomik olarak marjinal gruplar, çoğu veri setinde yeterince temsil edilmez.
  • Etiketleme Önyargısı: Etiketleme süreçleri çoğunlukla insanlar tarafından yapılır ve etiketi koyan kişinin algısı modele doğrudan yansır.
  • Kültürel Kodlama: Görsellerde, metinlerde ya da ses kayıtlarında yer alan kültürel işaretler, algoritma tarafından evrenselmiş gibi öğrenilir.

3. Kalite Değil, Nicelik Peşinde Koşmak

Veri setlerinin büyüklüğü, modellerin doğruluğunu artırmaz; aksine çoğu zaman istatistiksel yanılsamalar yaratır. Kalitesiz veriyle eğitilen model, önyargıyı sistematik hale getirir.

  • Garbage In, Garbage Out (GIGO) prensibi her zamankinden daha geçerlidir.
  • Veri temizliği ve ön işleme süreçlerinin göz ardı edilmesi, modelin görünmeyen zaaflarına yol açar.

4. Etik ve Politik Girdi Sorunları

Verinin kendisi teknik bir malzeme gibi görünse de, sosyal ilişkilerin ürünüdür. Hangi verinin toplanacağı, nasıl etiketleneceği ve hangi amaçla kullanılacağı politik kararlardır.

  • Gözetim kapitalizmi bağlamında, kullanıcıların rızası dışında toplanan verilerle eğitilen sistemler, mahremiyet ihlali yaratır.
  • Otoriter devletlerin gözetim araçları olarak geliştirilen yapay zekâlar, belirli ideolojik normları çoğaltır.

5. Çıkış Yolu: Girdi Eleştirisi ve Veri Adaleti

Yapay zekânın daha adil, şeffaf ve kapsayıcı olabilmesi için yalnızca algoritmaları değil, onları besleyen verileri de dönüştürmek gerekir.

  • Veri üretiminde şeffaflık, katılımcılık ve temsiliyet esas alınmalıdır.
  • Girdi değerlendirme protokolleri, sadece teknik değil etik kriterlere de dayanmalıdır.
  • Eleştirel veri okuryazarlığı, yapay zekâ alanında çalışan tüm aktörler için zorunlu hale gelmelidir.

Sonuç

Yapay zekâ sistemlerinin tarafsızlığına dair iddialar, ancak verilerin etik, sosyal ve politik bağlamlarını dikkate alan bir yaklaşım benimsenirse geçerlilik kazanabilir. Verinin masum olmadığı, hatta sistemli biçimde önyargı üretebildiği bir dünyada, girdilere yönelik eleştirel bir perspektif geliştirmek; yapay zekânın geleceğini belirleyecek en temel adımdır.


Kaynakça

  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  • O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing.
  • Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
  • boyd, d., & Crawford, K. (2012). “Critical Questions for Big Data”. Information, Communication & Society, 15(5), 662–679.
  • Mittelstadt, B. D., et al. (2016). “The Ethics of Algorithms: Mapping the Debate”. Big Data & Society, 3(2).
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Selçuk DİKİCİ – Endüstri Mühendisi


Intelligence or Input? A Critical Analysis of the Data Feeding Artificial Intelligence

Abstract

Artificial intelligence (AI) systems rely heavily on the data they are trained on. However, this data is not always objective, accurate, or ethically sourced. This paper critically explores the types of input used in AI and machine learning systems, emphasizing the biases, omissions, and representational issues embedded in data. It also examines the socio-political context of data production and challenges the prevailing narrative of algorithmic neutrality.


1. Introduction

The rise of AI and machine learning technologies has been fueled by massive datasets. Yet contrary to popular belief, more data does not always lead to better models. The quality, diversity, and representational capacity of the input data fundamentally shape the behavior and output of AI systems. In this context, the assumption that “data is neutral” becomes highly problematic. How neutral can an algorithm be when its vision of the world is shaped by biased, incomplete, or politicized data?


2. Types of Input: What’s Missing Beneath the Surface

AI inputs are typically categorized as structured, unstructured, labeled, or unlabeled. However, such technical classifications often ignore deeper issues like:

  • Representation Gaps: Marginalized communities are often underrepresented in training datasets.
  • Labeling Bias: Labels are often assigned by humans whose cultural assumptions and cognitive biases get embedded in the dataset.
  • Cultural Encoding: Visuals, texts, or audio recordings may reflect dominant cultural norms and are learned by algorithms as if they were universal.

3. Quantity Over Quality: A Misguided Priority

Large datasets do not guarantee improved performance. In fact, quantity can often mask issues like noise, skewed distributions, or systemic bias.

  • The “Garbage In, Garbage Out” (GIGO) principle applies more than ever.
  • Overlooking preprocessing, cleaning, and quality control introduces invisible vulnerabilities into the model.
  • Training on “big but bad” data can lead to systematic discrimination encoded as intelligence.

4. Ethical and Political Dimensions of Input

Data is not a neutral technical artifact—it is a product of social relations. Decisions about what data to collect, how to annotate it, and what to use it for are inherently political.

  • Surveillance Capitalism: AI systems increasingly rely on data harvested from users without meaningful consent.
  • Authoritarian Implementation: Governments use biased datasets and AI systems to reinforce ideology or police dissent.
  • Algorithmic Governance: Data-fed systems are making life-altering decisions in welfare, employment, policing, and beyond—often without transparency.

5. Toward a Politics of Input: Data Justice and Critical Literacy

To build fairer AI, we must interrogate and transform the data that powers it—not just the code.

  • Transparency, inclusion, and accountability should guide data collection processes.
  • Inputs must be evaluated not only for technical validity but also for ethical legitimacy.
  • Critical data literacy should become a foundational skill for developers, data scientists, and AI policymakers alike.

Conclusion

The claim that AI is neutral cannot hold unless the data it learns from is scrutinized through ethical and sociopolitical lenses. As long as datasets remain products of unequal societies, AI will replicate and reinforce those inequalities. A critical approach to input is not just desirable—it is necessary for shaping responsible and equitable AI.


References

  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  • O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing.
  • Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
  • boyd, d., & Crawford, K. (2012). “Critical Questions for Big Data.” Information, Communication & Society, 15(5), 662–679.
  • Mittelstadt, B. D., et al. (2016). “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society, 3(2).
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

  • Gönderiler/Makaleler/Tezler

    Yapay Zeka Destekli Konteyner Kontrolü:

    UNODC CCP Modelinin Geliştirilmesinde Makine Öğrenmesi Yaklaşımlarının Rolü ÖzetKüresel ticaretin %90’ından fazlası denizyolu ile gerçekleştirilmektedir. Bu büyük hacimli tücaret trafiği, suç örgütleri tarafından yasa dışı malların (uyuşturucu, silah, sahte ürünler,…

    UNODC Container Control Programme (CCP): Küresel Ticaretin Güvenliği İçin Stratejik Bir Model

    Özet Uluslararası ticaretin önemli bir bölümünün konteyner taşımacılığıyla yürütülmesi, limanlar ve sınır kapılarını yasa dışı ticaret faaliyetleri açısından kritik noktalar haline getirmiştir. Bu bağlamda, Birleşmiş Milletler Uyuşturucu ve Suç Ofisi…

    Bir yanıt yazın

    E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

    Neler Kaçırdın?

    Yapay Zeka Destekli Konteyner Kontrolü:

    • By admin
    • Nisan 17, 2025
    • 11 views
    Yapay Zeka Destekli Konteyner Kontrolü:

    UNODC Container Control Programme (CCP): Küresel Ticaretin Güvenliği İçin Stratejik Bir Model

    • By admin
    • Nisan 17, 2025
    • 11 views
    UNODC Container Control Programme (CCP): Küresel Ticaretin Güvenliği İçin Stratejik Bir Model

    Uyuşturucu ve Silah Kaçakçılığı: Uluslararası Güvenlik Açısından Küresel Bir Tehdit

    • By admin
    • Nisan 17, 2025
    • 17 views
    Uyuşturucu ve Silah Kaçakçılığı: Uluslararası Güvenlik Açısından Küresel Bir Tehdit

    Trump: Amerika’nın Çöküşünü mü Tetikleyecek, Yoksa Onu Tekrar İstikrarlı Bir Güce mi Dönüştürecek?

    • By admin
    • Nisan 17, 2025
    • 22 views
    Trump: Amerika’nın Çöküşünü mü Tetikleyecek, Yoksa Onu Tekrar İstikrarlı Bir Güce mi Dönüştürecek?

    ÇİN / TAYVAN SORUNU

    • By admin
    • Nisan 17, 2025
    • 29 views
    ÇİN / TAYVAN SORUNU

    AMD Instinct MI300X: Yapay Zekâ ve HPC için Yeni Nesil Hızlandırıcı

    • By admin
    • Nisan 9, 2025
    • 69 views
    AMD Instinct MI300X: Yapay Zekâ ve HPC için Yeni Nesil Hızlandırıcı