Skip to main content
Sayı 46 | 2025

Kesişimsel Toplumsal Cinsiyet Araştırmaları Perspektifinden Dijital Dönüşüm: Zorluklar ve Atılacak Adımlar

 Çeviren: Öykü Tümer[1]

 

Son yıllarda dijital teknoloji, toplumsal cinsiyet eşitliğini teşvik etme veya baltalama potansiyeli açısından tartışılmaktadır. Bu makalede, cinsiyet eşitliğini güçlendirme ile eşitsizlikleri artırma tehdidi arasındaki bu gerilim alanı ele alınmaktadır. Ayrıca bu yazı, dijital hümanizmi kesişimsel toplumsal cinsiyet araştırmaları perspektifinden incelemektedir. İlk olarak toplumsal cinsiyet ve hümanizm arasındaki tarihsel ilişki tartışılmakta, sonra toplumsal cinsiyet araştırmaları ve feminist teoriye ait kavramlar ve terminoloji ayrıntılı olarak açıklanmaktadır. Ardından, toplumsal cinsiyet ve teknolojinin etkileşimi örneklerle gösterilmektedir. Son olarak, çıkarılan dersler bölümünde daha kapsayıcı ve adil bir dijital dönüşüm için önemli olabilecek öneriler ve eylem çağrıları sunulmaktadır.

 

  1. Giriş[2]

Batı feminizmi, kadınların özgürleşme hareketleri ve günümüzde toplumsal cinsiyet eşitliği üzerine yapılan tartışmalar, hümanizm kavramıyla inkâr edilemez biçimde bağlantılıdır. Her ne kadar kadının toplumdaki rolü dönemin kimi düşünürleri arasında tartışmalı olsa da Aydınlanma’nın özgürlük ve ilerleme anlatısı kadın haklarının gelişiminde bir müttefik işlevi görmüştür (Ramazanoğlu & Holland, 2002; Lettow, 2017). Bununla birlikte, kadınların insan kavramına ve insan hakları tartışmalarına dahil edilmesi için tarih boyunca sürekli mücadele edilmesi gerekmiştir. Bunun en belirgin örneklerinden biri, 1791’de Fransa’da Olympe de Gouges tarafından kaleme alınan “Kadın ve [Kadın] Yurttaş Hakları Bildirgesi”dir. Bu manifestoda, diğer ilerici taleplerin yanı sıra, kadınların erkeklerle eşit ve aynı haklara layık oldukları ifade edilmiştir. De Gouges, kadınlara yurttaşlık statüsünde eşitlik talep etmişti; oysa Fransız Devrimi’nin ünlü belgesi olan 1789 tarihli “İnsan ve [Erkek] Yurttaş Hakları Bildirgesi”nde[3] (Cokely, 2018; Gouges & Fraisse, 2021) bu talep yoktu. Akademisyenler, bildirgedeki “erkek” [man] teriminin aslında Batı toplumunun Hıristiyan beyaz erkeğini kastettiğini, dolayısıyla bildirgenin evrensel karakteriyle çelişen oldukça dar kapsamlı bir kavram olduğunu vurgulamaktadır (Taylor, 1999).

Dolayısıyla, birinci dalga feminizm için kritik olan, evrensel insan hakları tartışmalarında kullanılan “insan” [human] ve “erkek” [man] terimlerinin aslında kimleri kapsadığını sorgulamaktı. Birinci dalga feministler bu nedenle, bu terminolojiyi kadınları[4] da kapsayacak şekilde genişletmeye çalıştılar. Simone de Beauvoir, İkinci Cins adlı eserinde (ilk baskı 1949), erkek, kadın ve insan kavramlarının ilişkisini sorgulamış ve daha sonra bu eser ikinci dalga feminizmin temel taşlarından biri olmuştur.  De Beauvoir’a göre öncelikle insan olarak kabul edilmek kadınlar için özgürleştiriciydi. İki ciltlik kitabın başlığı eserin temel iddiasını vurgular: Kadınlar, erkeğin “ötekisi” olarak tanımlanır ve o şekilde somutlaştırılır. Eserin en çok alıntılanan cümlelerinden biri şudur: “Kadın doğulmaz, kadın olunur.” (de Beauvoir, 2010, s. 283). Kadın kategorisinin sosyokültürel bağlamda inşa edildiğini iddia eden bu yaklaşım, toplumsal değişimi mümkün kılar. Dahası, ortak tahakküm deneyiminden kaynaklanan kadınlar arası dayanışma fikrini tesis eder ve nihayetinde feminizmin bir tür hümanizm olduğu iddiasını güçlendirir (Johnson, 1993). Donna Haraway, bütün çeşitliliğine rağmen, tüm modern Batılı feminizm kavramlarının de Beauvoir’ın bu cümlesine dayandığını vurgulamıştır (Haraway, 1991).

Bununla birlikte, toplumsal cinsiyet düzeni, feminizm ve hümanizm arasındaki ilişki hiçbir zaman düz bir çizgide ilerlememiştir. Nasıl ki tarihsel açıdan tüm insanları ifade etmek için “erkek”  teriminin kullanılması problemliyse, aynı şekilde “kadın” teriminin de tüm kadınları birleştirecek bir terim ya da siyasi hareketin temeli olarak görülmesi de sorunludur. 1851 gibi erken bir tarihte Sojourner Truth, Ohio’daki Kadın Hakları Kongresi’nde yaptığı “Ben de Kadın Değil miyim?” başlıklı etkileyici konuşmasında, Afrika kökenli Amerikalı kadın ve erkeklerin Amerikan İç Savaş Dönemi ve sonrasındaki temel haklar tartışmalarının dışında bırakılmasını eleştirmiştir. Ayrıca, bu konuşma kadınların sorunları ile kölelik karşıtı mücadeleyi ve özellikle siyah kadınların haklarını bir araya getirmesi açısından tarihsel bir dönüm noktasıdır (Truth, 1851). Bu durum, yalnızca kadın haklarına ya da ırksal adalete odaklanan toplumsal-sosyal adalet hareketlerini sorgulamaya açtı.

Üçüncü (ve dördüncü) dalga feminizme gelindiğinde, evrensel insan veya evrensel kadın kavramı, siyasal aktivistler, sanatçılar ve akademisyenler tarafından sert biçimde eleştirilmiştir. Farklı arka planlara sahip insanlar, siyah veya yerli kadınlar ile beyaz olmayan ırklardan kadınlar, kimin kimlik ve deneyimlerinin politik mücadelelere ve akademik bilgi üretimine dahil edildiğini ya da edilmediğini gündeme getirmişlerdir (hooks, 1981; Hill Collins, 1990; Combahee River Collective, 2001; Green, 2007). Ayrıca, toplumsal cinsiyetle bağlantılı olarak sınıf (Acker, 2006) veya engellilik (McRuer, 2006; Jenks, 2019) gibi kategorilerin de dikkate alınmaması eleştirilmiştir. Bunun yanında, toplumsal cinsiyetin ikili ve heteronormatif kavramsallaştırılmasına da itiraz edilmiştir (Stryker & Blackston, 2022; Muñoz, 1999).

Bu karmaşık tarih ve Aydınlanma’nın özgürleşme hareketleri açısından taşıdığı çelişkili miras, günümüzde dijital hümanizmden söz ederken akılda tutulması gereken unsurlardır. Bir sonraki bölümde, hümanizm ile feminizm arasındaki gerilim ele alınarak feminist teori ve toplumsal cinsiyet araştırmalarının dijital hümanizm tartışmalarını nasıl zenginleştirebileceğini inceleyeceğiz. Ayrıca, insan kavramının kimleri kapsadığı sorusu dijital dönüşüm tartışmaları açısından son derece güncel bir konudur ve dijital teknolojilerin gelişimi, kullanımı ve etkileri üzerinde somut bir etkisi vardır.

  1. Kesişimsel Toplumsal Cinsiyet Araştırmaları, Feminist Teori ve Dijital Teknoloji
    • Kesişimsel Toplumsal Cinsiyet Araştırmaları

Toplumsal cinsiyet çalışmaları, sosyal bilimler ve beşeri bilimlerde farklı köklere sahip, disiplinler arası ve geniş bir araştırma alanıdır. Toplumsal cinsiyet çalışmalarının ortak zemini, toplumsal bir kategori olarak cinsiyetin nasıl inşa edildiğini ve bunun sosyal, kültürel ve siyasi bağlamlarla etkileşim hâlinde nasıl ortaya çıktığını analitik olarak incelemektir. Gücün toplumsal cinsiyet, ırk, cinsellik, sınıf, yurttaşlık, yaş ve yeti üzerinden nasıl dağıtıldığı, somutlaştığı ve yönlendirildiği sorusu burada merkezi bir öneme sahiptir. Birden fazla aidiyet biçimini ele almak ve bunların nasıl farklı baskı biçimlerine yol açabileceğini anlamak için “kesişimsellik” kavramı ortaya atılmıştır. Kesişimsellik, siyah veya yerli olan ve beyaz olmayan (feminist) akademi, aktivizm, edebiyat ve sanattan beslenmiştir (Lorde, 2001; hooks, 1981; Hill Collins, 1990; Snyder, 2014). Kesişimsellik, evrensel insan (ve kadın) kavramını sorgular; kimlerin gerçekten kapsandığını sorgular ve ayrıca toplumsal kategorileştirmelerin sınırlarını ve olumsuz yanlarını inceler. Özellikle Amerikalı hukukçu ve sivil haklar aktivisti Kimberlé Crenshaw, mevcut ayrımcılık karşıtı yasaların siyah kadınlar için ise yaramadığını, çünkü yasaların çoklu ayrımcılık nedenlerini tanımadığını göstermiştir. Crenshaw, toplumsal cinsiyet ve ırk gibi toplumsal kategorilerin birbirinden bağımsız olmadığını, aksine bir kişinin toplumsal konumunu belirlemede birbirine bağlı olduğunu açıklamak için trafik kavşağı benzetmesini kullanmıştır (Crenshaw, 1989).

Bölüm 2.3’te toplumsal cinsiyet ile dijital teknolojinin nasıl etkileştiğine ve yapısal eşitsizlikler ile dijital dönüşüm arasındaki ilişkiyi anlamak açısından kesişimsel bir bakış açısının ne kadar faydalı olduğuna geri döneceğiz.

  • Feminist Teori ve Epistemolojiler

Toplumsal cinsiyet çalışmaları, feminist ve eleştirel teorinin heterojen damarlarından beslenir. Özellikle feminist ve eleştirel ırk çalışmaları, bilim tarihini analiz ederek, marjinalleştirilmiş insanları ve perspektifleri dışarıda bırakma eğilimini ortaya koymuştur. Bu alanlar, bilimsel bilginin ve kesişimsel toplumsal cinsiyet ilişkilerinin dinamiklerinin nasıl iç içe geçtiğini gösterir ve öteki olarak tanımlanan bireylerin nasıl zarar görebileceğine dair örnekler sunar (Schiebinger, 1989; Gowder, 2015; Zuberi & Silva, 2008).

Marjinalleştirilmiş perspektifler ve insanlar, bilimsel araştırmadan dışlanma, epistemik otoritenin reddedilmesi, zararlı kuramların üretilmesi, marjinalleştirilmiş grubun stereotipleştirilmesi ya da grubu etkileyen yapısal eşitsizliklerin göz ardı edilmesi anlamına gelebilir (bkz. Anderson, 2020). Nihayetinde bu, bilginin ve insan yapımı bilgi nesnelerinin taraflı biçimde üretilmesine yol açabilir ve bilimsel ve teknolojik yeniliği engelleyebilir.

Feminist epistemolojiler, kesişimsel toplumsal cinsiyet kavrayışlarının bilgi edinme yollarımızda nasıl bir rol oynadığını analiz etmemize olanak tanır. Feminist teoriye göre, bilginin nasıl ve hangi araçlarla üretildiği ve neyin “bilgi” olarak kabul edildiği her zaman belirli bir duruma ve bağlama bağlıdır[5]. Bu nedenle, bağlamsal bilgiler[6] feminist epistemolojilerin merkezinde yer alan bir kavramdır; bilginin nereden ve kim tarafından üretildiğini sorgulamaya imkân tanır ve tüm bilginin kısmi olduğunu, bilgi biçimlerinin ise çok çeşitli olduğunu kabul etmeyi mümkün kılar (Haraway, 1988). Burada iki önemli nokta öne çıkar: İlki, kısmi bakış açısı, evrensel bilgi iddialarını sorgular ve bunun yerine Haraway’in “konumlanmış rasyonalite olarak nesnellik” dediği yaklaşımı sunar (a.g.e., s. 590). Feminist bakış açısı teorisi[7], “güçlü nesnellik” kavramını geliştirmiştir (Harding, 1986, 1992). Sandra Harding, bilimsel bilgi üretiminin iddia edilen tarafsızlığını sorgular ve bunun yerine araştırmacının kendi bakış açısına dair bir farkındalık geliştirmesini önerir. Bu, olası toplumsal önyargıların ele alınmasına ve giderilmesine yardımcı olur. İkincisi, tam da bu konumlanmışlık, bilimsel ve teknolojik ürün ve bilgi üretimini en başta hesap verilebilir kılan şeydir. Dijital hümanizm tartışmalarında, teknolojinin hesap verebilirliğine yönelik çağrılar yeni bir öncelik kazanmıştır. Hesap verebilirliği hayata geçirmek, bilişim teknolojisi (BT) ve yapay zekâ (YZ) araştırma ve geliştirme alanlarında etik, hukuki ve toplumsal yönler ve etkiler açısından vazgeçilmezdir (Larsson ve diğerleri, 2019).

  • Toplumsal Cinsiyet ve Teknolojinin Etkileşimi

Bugün dijital teknoloji hayatın tüm alanlarını etkilemektedir ve bu nedenle bunun toplumsal eşitlik açısından ne anlama geldiğine yakından bakmamız gerekir. Kesişimsel toplumsal cinsiyet düzeni ile teknoloji arasındaki ilişki karmaşık ve çok yönlüdür. Konuya yaklaşmanın üç temel perspektifini belirleyebiliriz: birincisi, teknoloji araştırması, geliştirilmesi ve dağıtımına eşitsiz katılım; ikincisi, teknolojinin toplumsal cinsiyetin nasıl şekillendiği, yaşandığı ve deneyimlendiği üzerindeki etkisi ve üçüncüsü, teknolojinin kendisinin toplumsal cinsiyetli, ırksallaştırılmış, sınıfsallaştırılmış vb. olması. Bu yaklaşımlar birbirinden bağımsız değildir, örneklerde görüleceği gibi etkileşim hâlindedirler.

Teknolojik alana eşitsiz katılım, toplumsal cinsiyet ve teknoloji birlikte anıldığında akla gelen ilk konudur. Batı ülkeleri ve Küresel Kuzey için, bilişim teknolojileri araştırma ve geliştirmesinde toplumsal cinsiyet ve BIPOC[8] eşitsizliği kalıcı bir sorundur (Kapor Center ve ASU CGEST, 2018; Charleston vd., 2014; Stoet & Geary, 2018). Ayrıca dijital teknolojiye erişim de hem küresel hem yerel ölçekte sosyal eşitsizlikleri yansıtarak ve artırarak adil olmayan bir şekilde dağıtılmıştır (Goedhart vd., 2019; Choi vd., 2022).

Bilim ve teknoloji çalışmalarının (STS) toplum ve teknolojinin birlikte inşasına dair anlayışını (Bijker ve diğerleri, 1987) benimseyen feminist araştırmacılar, bunun toplumsal cinsiyet düzeni açısından ne anlama geldiğini analiz etmişlerdir (Wajcman, 2000). Eşitsiz katılımla ilgili önemli bir çalışma alanı, marjinalleştirilmiş insanları, yaklaşımları ve deneyimleri görünür kılmaktır. Örneğin, bilişim alanında siyah kadın bilim insanlarının rolü ancak son zamanlarda, özellikle Hidden Figures kitabı (ve filmi) ile görünür hâle gelmiştir (Lee Shatterly, 2016)[9]. Ayrıca, dijital dönüşümü mümkün kılan donanımın, çoğunlukla beyaz ırktan olmayan (kadınlar) tarafından ve genellikle de sorunlu çalışma koşulları altında üretilmesi, teknoloji kullanıcılarından gizlenmiştir (Nakamura, 2014).

İkinci olarak, kullanımda olan dijital ürünler ve hizmetler insanların esenliğini güçlü bir şekilde etkiler. Bir örnek, toplumsal cinsiyet, siyaset, sağlık hizmetleri ve veri ekonomisi arasındaki tartışmalı bir alanı oluşturan âdet döngüsü takip uygulamalarıdır. Dikkat çekicidir ki, erken sağlık izleme teknolojilerinde menstrüasyon takibi yer almamıştır.[10] Bugün, menstrüel sağlık araştırmalarını teşvik edebilecek, güçlenmeyi sağlayabilecek ve bireylerin sağlık durumları üzerindeki söz haklarını destekleyebilecek hem entegre çözümler hem de bağımsız uygulamalar bulunmaktadır.  Öte yandan, kendi kendini takip etme, âdet deneyimini izlenmesi ve kontrol edilmesi gereken bir süreç olarak şekillendirir ve normlaştırılmış kalıplara uyması gerektiğini ima eder (Hohmann-Marriott, 2021). Ayrıca popüler uygulamalar, sıradan kullanıcıların müdahale etme ve verileri kontrol etme olasılığının olmadığı, gizlilik, şeffaflık eksikliği yaratan iş modelleri üzerine inşa edilmiştir: “Belirgin işlevlerini yerine getirmek için, âdet uygulamaları son derece kişisel verilerin büyük miktarını toplar. Bu veriler bir kırılganlık yaratır; örneğin veriler, norm dışı menstrüasyon gören kişileri (örneğin trans bireyleri veya sağlık sorunları olanları) açığa çıkarabilir veya bilgiler, şüpheli gebelik veya gebelik sonlandırmasını kayıt altına almak için kullanılabilir” (a.g.e.). Siyasal bağlama bağlı olarak, bu tür hassas sağlık verilerinin çıkarılması ve sömürülmesi gerçekten tehlikeli olabilir ve kişilerin toplumsal cinsiyetleri, cinsel kimlikleri, yönelimleri ve seçimleri temelinde yaşamlarını derinden etkileyebilir.[11] Dolayısıyla, sosyopolitik bağlamı, eşitsiz güç ilişkilerini ve ayrımcılık ve özerklik gibi değerleri dikkate alan sağlık uygulaması geliştirmelerine yönelik çağrılar önemlidir, aynı zamanda politika düzenlemeleri de son derece elzemdir (Fox & Epstein, 2020).

Ortaya konan sorunlar verilen örneklerin ötesine geçmektedir. Shoshana Zuboff, veri odaklı dijital teknoloji, büyük şirketler, baskın iş modelleri ve düzenleyici gücün eksikliği arasındaki etkileşimin “gözetim kapitalizmi çağı”na yol açtığını öne sürmüştür (Zuboff, 2018).

Üçüncü olarak, daha önce de ifade ettiğimiz gibi, teknolojinin tarafsızlığını sorgulamak bilim ve teknoloji çalışmalarının merkezindedir. Feminist ve postkolonyal bilim ve teknoloji çalışmaları araştırmacıları, cinsiyet, ırk, yaş ve sınıfın teknoloji tasarımındaki rolünü analiz etmiş ve hizmetlerin ve ürünlerin eşitsizlikleri teşvik edebileceğini (ancak bu eşitliksizlikleri hafifletebileceğini de) ortaya koymuştur (Harding, 2011). 1990’larda ev içi teknoloji (mikrodalga fırın, elektrikli süpürge veya çamaşır makineleri gibi) üzerine yapılan çalışmalar, bu cihazların toplumsal cinsiyet rollerinden etkilendiğini ve ev içi ile üretimdeki toplumsal cinsiyet temelli işbölümünü pekiştirdiğini ortaya koymuştur (Cockburn & Ormrod, 1993; Cockburn & Fürst-Dilić, 1994). Bugün, akıllı ev teknolojisi tasarımının, aile içi istismar ve partner şiddeti bağlamında kötüye kullanımı öngörmesi ve buna karşı koyması gerekmektedir (Leitão, 2019).

Son yıllarda, özellikle makine öğrenmesi teknolojisi, yapay zekânın bir alt alanı olarak, bilgi teknolojileri ve yapay zekâ tasarımının etik yönlerine daha geniş bir dikkat çekmiştir. Bu veri odaklı sistemler toplumsal önyargıları yansıtabilir ve iş sektörü, sağlık ve sosyal hizmetler ile adalet sistemi gibi alanlarda toplumsal eşitsizliklerin artmasına yol açabilir (Eubanks, 2017; Wachter-Boettcher, 2017). Dolayısıyla mevcut yapay zekâ sistemleri, toplum ve teknolojinin ne kadar iç içe geçtiğini canlı bir şekilde göstermektedir. Son yıllarda teknik ve sosyal disiplinlerden araştırmacılar, yapay zekânın adalet ve toplumsal adalet sorularını ele almak için giderek daha fazla çaba göstermektedirler (Binns, 2018; Mehrabi vd., 2021; Draude vd., 2022). Teknolojinin toplumsal cinsiyetli, ırksallaştırılmış, sınıfsallaştırılmış etkilerine yol açan toplumsal önyargılar, birden çok nedene bağlanmıştır: eğitim verilerinin niteliğine, algoritmaların ve modellemenin kısıtlamalarına ve kullanım bağlamından kaynaklanan önyargılara (Friedman & Nissenbaum, 1996; Draude vd., 2020).[12]

Basitleştirilmiş terimlerle, makine öğrenmesi teknolojisi mevcut veri kümelerini kullanarak istatistiksel modelleri eğiterek otomatik olarak algoritmalar üretir. Daha fazla veri mevcut hâle geldikçe, davranışlarını uyarlayabilirler. Makine öğrenmesi sistemleri, büyük ölçekte veriyi analiz etmek ve gelecekteki sonuçları tahmin etmek için kullanılmaktadır. Bu aynı zamanda, bu sistemlerin eğitildikleri geçmiş veri kümelerinden önyargıları da miras alabilecekleri anlamına gelir.[13]

Çok dikkat çeken bir çalışmada, Bolukbasi ve diğerleri, kelime gömme[14] yöntemlerinin toplumsal cinsiyet stereotiplerini nasıl pekiştirebileceğini göstermiştir.[15] Ayrıca yazarlar, kelime anlamlarına ve çağrışımlarına sadık kalırken toplumsal cinsiyet stereotiplerini kaldırmaya yönelik bir metodoloji de sunmuşlardır (Bolukbasi vd., 2016). Eğer algoritmalar, çoğunlukla toplumsal cinsiyet stereotiplerini içeren ve kadın ile hemşire, erkek ile doktor gibi terimler arasındaki yakınlıkları barındıran veri setleriyle eğitilirse, yazılım bu atıfları öğrenir ve gelecekte yeniden üretir. Çalışma için, yazarlar Google tarafından eğitilmiş bir yapay sinir ağını analiz etmiştir; bu ağ, veritabanı olarak 3 milyondan fazla Google News makalesi kullanmıştır. Amaç, matematiksel olarak temsil edilebilecek (vektör uzayında vektörler olarak) dil kalıpları türetmekti. Kadın zamirleriyle ilişkilendirilen bazı atıflar şunlardı: “ev hanımı, hemşire, resepsiyonist, kütüphaneci, sosyetik, kuaför, dadı, idari asistan, stilist, temizlikçi.” Erkek zamirleriyle ilişkilendirilenler ise şunlar: “orkestra şefi, kaptan, mütehassıs, filozof, komutan, mimar, finansçı, savaşçı, yayıncı, sihirbaz” (a.g.e., s. 4357). Bunu takiben, Bolukbasi ve diğerleri farklı terimler arasında otomatik olarak üretilen benzetmeleri Amazon Mechanical Turk çalışanlarına incelettirmiştir. Her bir kelime gömme (word embedding) için, çalışanların bunun toplumsal cinsiyet stereotipi mi yoksa toplumsal cinsiyete uygun bir benzetme mi olduğuna karar vermesi gerekiyordu. Toplumsal cinsiyet stereotipik kadın-erkek benzetmeleri arasında “dikiş dikme-marangozluk, hemşire-cerrah, sarışın-iri yapılı, kek-pizza, sevimli-parlak, softbol-beyzbol” vb. bulunurken, toplumsal cinsiyete uygun kadın-erkek benzetmeleri arasında “kraliçe-kral, kadın garson-garson, kız kardeş-erkek kardeş, anne-baba” vb. vardı (a.g.e., s. 4357).

Bu kelime gömme örneği, yalnızca teknik gelişmenin ayrımcılığı nasıl sürdürebileceğini göstermekle kalmıyor, çalışmanın mevcut toplumsal önyargıları görünür kıldığını ve önyargıyı azaltmaya yönelik yöntemler sunduğunu da gösteriyor. Çünkü toplumsal cinsiyet önyargısı matematiksel bir model olarak sunulduğunda, matematiksel yöntemler bu önyargıyı azaltmak için de kullanılabilir.[16] Yazarlar ayrıca bu tür önyargı azaltma yöntemlerinin eleştirilerine veya potansiyel sakıncalarına da işaret ederler:

Kelime gömmelerdeki önyargıya ilişkin bir bakış açısı, bunun yalnızca toplumdaki önyargıyı yansıttığı ve bu nedenle kelime gömmelerini değil toplumu önyargıdan arındırmaya çalışmamız gerektiğidir. Ancak, günümüzde kelime gömmelere giderek daha fazla bağımlı hâle gelen bilgisayar sistemlerindeki önyargıyı azaltarak (ya da en azından bu önyargıyı güçlendirmeyerek), küçük bir ölçüde önyargısı azaltılmış kelime gömmelerinin toplumsal cinsiyet önyargısını azaltmaya katkıda bulunması umulabilir. En azından, makine öğrenimi bu önyargıları farkında olmadan güçlendirmek için kullanılmamalıdır; bunun doğal olarak gerçekleşebileceğini gördük. Belirli uygulamalarda, gömmede (örneğin bilgisayar programcısı erkek zamiriyle daha yakınsa) toplumsal cinsiyet önyargılarının yararlı istatistikleri yakalayabileceği ve bu özel durumlarda orijinal önyargılı gömmelerin kullanılabileceği ileri sürülebilir. Ancak, toplumsal cinsiyet stereotiplerini ve ayrımcılıkları artıran makine öğrenmesi algoritmalarına sahip olmanın potansiyel riski göz önünde bulundurulduğunda, tarafsızlık lehine hareket etmemizi ve mümkün olduğunca burada sağlanan önyargısı azaltılmış gömmeleri kullanmamızı tavsiye ediyoruz. (a.g.e., s. 4363).

Yukarıda öğrendiğimiz gibi, toplumsal cinsiyet, toplumsal eşitsizliğin olası bir faktörüdür. Irk, sınıf, engellilik, yaş vb. gibi diğer kategoriler toplumsal cinsiyetle kesişir. Henüz bilgisayar bilimi öğrencisiyken Joy Buolamwini, yüz tanıma teknolojisinin kendi yüzünü tanımadığını fark etmişti. O dönemde teknoloji siyah kadınlar için işe yaramıyordu — aksine insan özellikleri olmayan beyaz bir maske işe yarıyordu (Buolamwini, 2016). Bu durum, teknolojinin bir kişiyi yalnızca ten rengine dayanarak nasıl insan olmaktan çıkarabileceğini gösteriyor. “Gender Shades” [Toplumsal Cinsiyet Tonları] başlıklı çalışmasında Buolamwini, Timnit Gebru ile birlikte ticari yüz tanıma teknolojisini daha ileri düzeyde analiz etmiştir. Kadınların, özellikle koyu tenli veya Batı dışı olarak sınıflandırılan yüz özelliklerine sahip olanların en sık yanlış tanımlanan kişiler olduklarını bulmuşlardır. Ancak koyu tenli erkekler de açık tenli kadınlara kıyasla daha kötü tanımlanmıştır (Buolamwini & Gebru, 2018). Diğer çalışmalar, yapay zekâ sistemlerinde kullanılan görsel verilerin kültürel ve etnik stereotipleri sürdürdüğünü göstermiştir (Zou & Schiebinger, 2018).

Bu örnekler, bu bölümün başında belirttiğimiz üç perspektifin nasıl iç içe geçtiğini göstermektedir. Bilgi teknolojileri ve yapay zekânın ayrımcı etkilerinin çoğu kez siyah kadınlar, beyaz olmayan insanlar ve genel olarak marjinalleştirilmiş gruplar tarafından yapılan çalışmalar sayesinde dikkatimize sunulmuş olması şaşırtıcı değildir. Teknik alandaki eşitsiz katılım, dijital teknolojinin sorunlu etkilerinin yalnızca uygulamaya alındıktan sonra fark edilmesi anlamına gelebilir ve dijital dönüşüm sonucunda teknolojinin toplumsal cinsiyetlendirilmiş, ırksallaştırılmış, sınıfsallaştırılmış vb. gerçekliklerimiz üzerindeki etkisi giderek büyümektedir. Yapay zekânın yükselişi, eğer karşı koyucu önlemler alınmazsa, eşitsizliğin otomatikleşip güçlenebileceğini göstermektedir.

  1. Sonuç

Tarihsel arka plan ışığında, insan kategorisi üzerine düşünmenin ve kimlerin bu kategoriye dahil edilip kimlerin edilmediğini sorgulamanın önemli olduğunu öğrendik. Daha adil ve eşitlikçi bir (dijital) gelecek için, marjinalleştirilmiş yaklaşımları merkeze alan eleştirel teori ve yöntem alanındaki zengin çalışmalara yönelebiliriz. Bu, (Dijital) Hümanizmi zenginleştirmemizi sağlar. Başka yayınlarımızda, bilgi teknolojileri ve yapay zekâ sistemlerinin geliştirilmesinde marjinalleştirilmiş yaklaşımların çoğunlukla yalnızca belirli kullanıcı grupları (örneğin yaşlılar, bakımevlerindeki insanlar veya engelli bireyler) için tasarım yapıldığında hesaba katıldığını ileri sürmüştük (Dankwa & Draude, 2021). Daha kapsayıcı bir dijital dönüşüm, her zaman kesişimsel ve çok çeşitli perspektifleri, insanları ve bağlamları merkeze almak ve ayrıca bilgi teknolojileri ve yapay zekâ geliştirmesinde sistemik ve sosyo-teknik yaklaşımları ilerletmek anlamına gelecektir.

2.3. bölümdeki örneklere geri dönersek, bilgi teknolojileri ve yapay zekâ sistemlerindeki önyargıya yalnızca daha fazla veri çıkarımı veya daha iyi matematiksel modeller aracılığıyla karşı koymanın yeterli olamayacağını görürüz. Teknik bir bakış açısından tüm insanlar için işleyen yüz tanıma teknolojisi geliştirmiş olsak bile, bu teknolojinin kullanımı hâlâ savunmasız grupları ciddi bir biçimde etkileyebilir. Özellikle, veriye aşırı bağımlılık, toplumsal eşitlik açısından bir gerilim alanı yaratmaktadır. Bir yandan, veri kümelerinde önyargı ya da temsil eksikliği sorunludur. Güvenilir veriler, ayrımcılığı görünür kılmak için gereklidir (örneğin, pozitif ayrımcılık için bir gerekçe olarak, ama aynı zamanda bilgi teknolojileri ve yapay zekâ geliştirmek için). Birçok alanda veri eksikliği, kullanılamaz, erişilemez ve hatta tehlikeli hizmet ve ürünlere yol açmaktadır (Criado-Perez, 2019). Diğer yandan, artan veri toplama, sosyo-politik bağlama bağlı olarak oldukça sorunlu olabilir. Görünürlük, savunmasız insanları ifşa edebilir veya onları en baştan savunmasız hâle getirebilir. Kategorileştirme, belirli insan grupları hakkındaki stereotipik varsayımları katılaştırma riski taşır ve elbette, sınıflandırma sistemlerinin de sorunlu tarihsel geçmişleri vardır (Bowker & Star, 1999).

Sonuç olarak, daha adil bir dijital dönüşüm için atılması gereken adımları şöyle özetleyebiliriz: İlk adım, güç, eşitsizlik ve çeşitli toplumsal grupların ve bağlamların imkânlarının dijital gelişimin tüm aşamalarında ve sonraki kullanımında önemli olduğunun farkına varmaktır. Ayrıca, yaygın dijital teknolojinin beraberinde getirdiği toplumsal zorluklarla yalnızca disiplinler arası alışveriş yoluyla başa çıkılabilir. Özellikle de ayrımcılık konularında uzmanlığı olan alanlarda çalışmalar yürütülmelidir. İkinci adım, toplumsal fayda için aktif olarak tasarım yapma kararını vermektir. Bilgi teknolojileri sayesinde çok uzun süredir demokratik değerleri, katılımı ve özerkliği teşvik eden katılımcı tasarım (Bødker vd., 2021), değer merkezli tasarım (Friedman & Hendry, 2019) ve sosyo-teknik tasarım (Mumford, 2006) gibi yaklaşımlar mevcuttur. Ancak toplumsal adaletin önce önemli bir değer olarak tanınması, aktif olarak uygulanması ve ilgili uzmanlığın dikkate alınması gerekir. Toplumsal adaletin temel bir değer olarak içselleştirildiği tasarım çerçeveleri arasında hâlihazırda baskı karşıtı tasarım (Smyth & Dimond, 2014) ve adalet odaklı tasarım (Costanza-Chock, 2020) bulunmaktadır. Ayrıca, yapay zekâ teknolojisi (otomatik karar verme, öneriler geliştirme, filtreleme, içerik üretimi) insan-bilgisayar etkileşimi ve bilgi sistemleri tasarımı gibi alanlara yeni zorluklar getirmektedir. Üçüncü adım, düzenleyici uygulamalar ve politika geliştirmeyi ilgilendirir. Bunlar hem birinci ve ikinci adımların mümkün kılınmasında hem de sosyo-teknik açıdan sürdürülebilir olmasında belirleyicidir (Palmiotto, 2023; Avrupa Komisyonu, 2021).

Öğrenciler ve Öğretmenler İçin Tartışma Soruları

Aşağıdaki unsurları kendi araştırma, çalışma ya da öğrenim alanınızdaki dijital dönüşümle ilişkilendirin.

  1. Kimlik ve kesişimsellik

İnsandan söz ettiğinizde kimler dikkate alınıyor, kimler alınmıyor?

Kesişimsel bir yaklaşım bakış açınızı nasıl genişletebilir?

  1. Bilgi üretimi ve yöntem

Marjinalleştirilmiş yaklaşımları tanımlayabilir misiniz? İnsanların, çalışma alanlarının ve insan olmayan aktörlerin görünürlüğünü ya da görünmezliğini düşünün.

Sizce araştırma yöntemlerinizin, yaklaşımlarınızın ya da araçlarınızın daha kapsayıcı hâle gelmesi gerekiyor mu?

  1. Güç ve hiyerarşiler

Alanınızdaki güç dinamikleri nasıl somutlaşıyor? Örneğin, teknolojiyi geliştirenler ile sıradan kullanıcılar, uzmanlar ile uzman olmayanlar arasındaki hiyerarşiler veya toplumdaki yapısal eşitsizlikleri düşünebilirsiniz.

Ayrıca, sonuç bölümünde özetlenen adımlardan hangisi (farkındalık yaratma, toplumsal fayda için tasarım kararı, politika geliştirme) sizin alanınızda en çok gerekli? Yanıtlarınızı örneklerle açıklayın.

 

Öğrenciler için Kaynaklar

  1. Bardzell, S. (2010) “Feminist HCI: Taking Stock and Outlining an Agenda for Design”, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York, NY, USA, Association for Computing Machinery, s. 1301–1310.

Bardzell feminist teoriyi tanıtır ve bunun etkileşim tasarımı için ne anlama geldiğini tartışır. Makale endüstriyel tasarım, mimarlık ve oyun tasarımından örnekler içerir.

  1. Irani, L., Vertesi, J., Dourish, P., Philip, K. ve Grinter, R. E. (2010) “Postcolonial computing”, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York, NY, ABD, ACM, s. 1311–1320.

Bu makale, insan-bilgisayar etkileşimi, bilim ve teknoloji çalışmaları ile postkolonyal düşünceyi bir araya getirerek küresel bağlamlarda kalkınma için tasarım tartışmalarında teori ve tasarım sorunlarını ele alır.

  1. Spiel, K. (2021) “‘Why Are They All Obsessed with Gender?’— (Non)Binary Navigations through Technological Infrastructures,” Designing Interactive Systems Conference 2021. New York, NY, ABD, Association for Computing Machinery, s. 478–494.

Teknolojik altyapılarda toplumsal cinsiyetin nasıl kodlandığına dair mükemmel bir çalışma. Makale, toplumsal cinsiyet kuramı ve cinsiyet, etkileşim teknolojisi ve altyapıların eş-inşasını açıklar.

  1. Draude, C., Klumbyte, G., Lücking, P. ve Treusch, P. (2020) “Situated algorithms: a sociotechnical systemic approach to bias”, Online Information Review, cilt 44, sayı 2, s. 325–342.

Bu makale, algoritmalar, toplumsal önyargı ve sosyo-teknik sistem tasarımı arasındaki ilişkiye daha derin bir bakış sağlar. Toplumsal eşitsizlikleri sistem tasarımına dahil eden bir metodoloji önerir.

  1. Draude, C., Hornung, G. ve Klumbytė, G. (2022) “Mapping Data Justice as a Multidimensional Concept Through Feminist and Legal Perspectives”, Hepp, A., Jarke, J. ve Kramp, L. (der.) New Perspectives in Critical Data Studies içinde, Cham, Springer International Publishing, s. 187-216.

Bu disiplinlerarası makale, veri adaletini feminist ve hukuki çalışmaların merceğinden sorgulayarak veri adaletini bilgi teknolojileri tasarımında çok boyutlu, disiplinlerarası bir uygulama olarak yeniden yapılandırır.

  1. Draude, C. ve Maaß, S. (2018) “Making IT work: Integrating Gender Research in Computing Through a Process Model”, Conference, Gender & IT: Proceedings: 14.-15.05.2018, Heilbronn. Heilbronn, Almanya, 14–15 Mayıs 2018. New York, New York, The Association for Computing Machinery, Inc, s. 43–50. Web sitesi: gerd-model.com

GERD modeli, bilişim sistemleri tasarımı, geliştirme ve araştırmalarında kesişimsel toplumsal cinsiyet bilgisini çalışmaya olanak sağlayan bir süreç modelidir.

TEŞEKKÜRLER

Allison Stanger, Carlo Ghezzi ve Dmitri Katz’a bu bölümü gözden geçirmek için gerekli zamanı ve çabayı ayırdıkları için teşekkür etmek isterim. Metnin kalitesini artırmaya yardımcı olan değerli önerilerini içtenlikle takdir ediyorum.

KAYNAKÇA

Acker, J. (2006). Class questions: Feminist answers. Rowman & Littlefield.

Anderson, E. (2020). “Feminist epistemology and philosophy of science”. E. N. Zalta (der.), The Stanford encyclopedia of philosophy içinde. Stanford University.

Bijker, W. E., Hughes, T. P., & Pinch, T. (Der.). (1987). The social construction of technological systems: New directions in the sociology and history of technology. MIT Press.

Binns, R. (2018). “Fairness in machine learning: Lessons from political philosophy”. Conference on Fairness, Accountability and Transparency, 149–159.

Bødker, S., Dindler, C., Iversen, O. S., & Smith, R. C. (2021). “Participatory design”. Synthesis Lectures on Human-Centered Informatics, 14(5).

Bolukbasi, T., Chang, K.-W., Zou, J., Saligrama, V., & Kalai, A. (2016). “Man is to computer programmer as woman is to homemaker? Debiasing word embeddings”. Proceedings of the 30th International Conference on Neural Information Processing Systems içinde (s. 4356–4364). Curran Associates.

Bowker, G. C., & Star, S. L. (1999). Sorting things out: Classification and its consequences / Geoffrey C. Bowker, Susan Leigh Star. MIT Press, Cambridge.

Buolamwini, J. (2016). “How I’m fighting bias in algorithms” [Çevrimiçi]. TEDx Beacon Street. Erişim tarihi: 10 Mart 2023, https://www.youtube.com/watch?v=UG_X_7g63rY

Buolamwini, J., & Gebru, T. (2018). “Gender shades: Intersectional accuracy disparities in commercial gender classification”. Proceedings of Machine Learning Research, PLMR: Proceedings of the 1st Conference on Fairness, Accountability and Transparency içinde. New York, ABD, 23–24 Şubat, s. 77–91.

Charleston, L., George, P., Jackson, J., Berhanu, J., & Amechi, M. (2014). “Navigating underrepresented STEM spaces: Experiences of black women in U.S. computing science higher education programs who actualize success”. Journal of Diversity in Higher Education, 7, 166–176.

Choi, E. Y., Kanthawala, S., Kim, Y. S., & Lee, H. Y. (2022). “Urban/rural digital divide exists in older adults: Does it vary by racial/ethnic groups?” Journal of Applied Gerontology, 41(5), 1348–1356.

Cockburn, C., & Fürst-Dilić, R. (Der.). (1994). Bringing technology home: Gender and technology in a changing Europe. Open University Press.

Cockburn, C., & Ormrod, S. (1993). Gender and technology in the making. SAGE.

Cokely, C. L. (2018). “Declaration of the Rights of Woman and of the [Female] Citizen” [Çevrimiçi]. Erişim tarihi: 22 Şubat 2022, https://www.britannica.com/topic/Declaration-of-the-Rights-of-Woman-and-of-the-Female-Citizen

Combahee River Collective. (2001). “The Combahee River Collective Statement (1977)”. J. Ritchie & K. Ronald (Der.), Available means: An anthology of women’s rhetoric(s) içinde (s. 292–300). Pittsburgh University Press.

Costanza-Chock, S. (2020). Design justice: Community-led practices to build the worlds we need. MIT Press.

Crenshaw, K. (1989). “Demarginalizing the intersection of race and sex: A black feminist critique of antidiscrimination doctrine, feminist theory and antiracist politics”. University of Chicago Legal Forum 1989 (Article 8).

Criado-Perez, C. (2019). Invisible women: Exposing data bias in a world designed for men / Caroline Criado Perez. Chatto & Windus.

Dankwa, N. K., & Draude, C. (2021). “Setting diversity at the core of HCI”. M. Antona & C. Stephanidis (Der.), Universal access in human-computer interaction. Design methods and user experience içinde (s. 39–52). Springer International.

de Beauvoir, S. (1949). Le deuxième sexe. Gallimard.

de Beauvoir, S. (2010). The second sex. Alfred A. Knopf.

de Gouges, O., & Fraisse, G. (önsöz). (2021). Declaration des droits de la femme et de la citoyenne et autres textes. Librio.

Dev, S., Monajatipoor, M., Ovalle, A., Subramonian, A., Phillips, J., & Chang, K.-W. (2021). “Harms of gender exclusivity and challenges in non-binary representation in language Technologies”. The 2021 Conference on Empirical Methods in Natural Language Processing içinde (s. 1968–1994). Punta Cana, Dominik Cumhuriyeti.

Draude, C., Hornung, G., & Klumbytė, G. (2022). “Mapping Data Justice as a Multidimensional Concept Through Feminist and Legal Perspectives”. A. Hepp, J. Jarke, & L. Kramp (Der.), New Perspectives in Critical Data Studies içinde (s. 187–216). Springer International.

Draude, C., Klumbytė, G., Lücking, P., & Treusch, P. (2020). “Situated algorithms: a sociotechnical systemic approach to bias”. Online Information Review, 44(2), 325–342.

Eubanks, V. (2017). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Avrupa Komisyonu. (2021). European approach to artificial intelligence [Çevrimiçi]. Avrupa Komisyonu. Erişim tarihi: 18 Mart 2023 https://digital-strategy.ec.europa.eu/en/policies/ european-approach-arti cial-intelligence

Evans, E., & Chamberlain, P. (2015). “Critical waves: Exploring feminist identity, discourse and praxis in western feminism”. Social Movement Studies, 14(4), 396–409.

Eveleth, R. (15 Aralık 2015). “How self-tracking apps exclude women”. The Atlantic [Çevrimiçi]. Erişim Tarihi: 10 Mart 2023 https://www.theatlantic.com/technology/archive/2014/12/how self-tracking-apps-exclude-women/383673/

Fox, S., & Epstein, D. (2020). “Monitoring menses: Design-based investigations of menstrual tracking applications”. C. Bobel, I. T. Winkler, B. Fahs, K. A. Hasson, E. A. Kissling, & T.-A. Roberts (Der.), The Palgrave handbook of critical menstruation studies: Monitoring menses: Design-based investigations of menstrual tracking applications içinde (s. 733–750).

Friedman, B., & Hendry, D. (2019). Value sensitive design: Shaping technology with moral imagination. MIT Press.

Friedman, B., & Nissenbaum, H. (1996). “Bias in computer systems”. ACM Transactions on Information Systems, 14(3), 330–347.

Garamvolgyi, F. (28 Haziran 2022). “Why US women are deleting their period tracking apps”. The Guardian [Çevrimiçi]. Erişim tarihi: 9 Mart 2023 https://www.theguardian.com/world/2022/ jun/28/why-us-woman-are-deleting-their-period-tracking-apps

Goedhart, N. S., Broerse, J. E., Kattouw, R., & Dedding, C. (2019). “‘Just having a computer doesn’t make sense’: The digital divide from the perspective of mothers with a low socio economic position.” New Media & Society, 21(11–12), 2347–2365.

Gowder, P. (2015). “Critical race science and critical race philosophy of science”. Fordham Law Review, 83(6), [Çevrimiçi]. https://ir.lawnet.fordham.edu/ r/vol83/iss6/11

Green, J. A. (2007). Making space for indigenous feminism. Fernwood Publishing/Zed Books

Haraway, D. (1988). “Situated knowledges: The science question in feminism and the privilege of partial perspective”. Feminist Studies, 14(3), 575–599.

Haraway, D. (1991). “Gender for a Marxist dictionary: The sexual politics of a Word”. D. J. Haraway (Der.), Simians, cyborgs and women: The reinvention of nature içinde (s. 127–148). Free Association Books.

Haraway, D. J. (1997). Modest_Witness@Second_Millenium.FemaleMan_Meets_OncoMouseTM: Feminism and Technoscience. Routledge.

Harding, S. (1986). The science question in feminism. Cornell University Press.

Harding, S. (1992). “Rethinking standpoint epistemology: What is ‘strong objectivity’?” The Centennial Review, 36(3), 437–470.

Harding, S. (1998). Is science multicultural? Postcolonialisms, feminisms, and epistemologies. Indiana University Press.

Harding, S. (2011). The postcolonial science and technology studies reader. Duke University Press.

Hill Collins, P. (1990). Black feminist thought: Knowledge, consciousness, and the politics of empowerment. Unwin Hyman. (Perspectives on gender, 2).

Hohmann-Marriott, B. (2021). “Periods as powerful data: User understandings of menstrual app data and information”. New Media & Society.

hooks, b. (1981). Ain’t I a woman: Black women and feminism. 1. Baskı. South End Press.

Jenks, A. C. (2019). “Crip theory and the disabled identity: Why disability politics needs impairment.” Disability & Society, 34(3), 449–469.

Jiao, Q., & Zhang, S. (2021). “A brief survey of word embedding and its recent development”. 2021 IEEE 5th Advanced Information Technology, Electronic and Automation Control Con ference (IAEAC) içinde. (s. 1697–1701).

Johnson, P. (1993). “Feminism and the enlightenment”. Radical Philosophy, 63,3–12

Kapor Center ve ASU CGEST. (2018). “Women and girls of color in computing”. Data brief, Kapor Center & Center for Gender Equity in Science and Technology (CGEST), Arizona State University [Çevrimiçi]. Son erişim tarihi: 4 Mart 2023 https://www.wocincomputing.org/wp content/uploads/2018/08/WOCinComputingDataBrief.pdf

Larsson, S., Anneroth, M., Felländer, A., Felländer-Tsai, L., Heintz, F., & Cedering Ångström, R. (2019). “Sustainable AI: An inventory of the state of knowledge of ethical, social, and legal challenges related to artificial intelligence”. AI Sustainability Center [Çevrimiçi]. Son erişim tarihi: 8 Mart 2023. https://portal.research.lu.se/en/publications/sustainable-ai-an-inventory-of-the-state-of-knowledge-of-ethical-/

Latour, B., & Woolgar, S. (1979). Laboratory life. The social construction of scientic facts. Sage Publications (Sage library of social research, v. 80).

Lee Shetterly, M. (2016). Hidden figures: The American dream and the untold story of the Black women mathematicians who helped win the space race. William Collins.

Leitão, R. (2019). “Anticipating smart home security and privacy threats with survivors of intimate partner abuse”. DIS 2019: Proceedings of the 2019 ACM Designing Interactive Systems Conference içinde, Haziran 24-28, 2019, San Diego, CA, ABD (s. 527–539). ACM.

Lettow, S. (2017). “Feminism and the enlightenment”. A. Garry, S. J. Khader, & A. Stone (Der.), The Routledge companion to feminist philosophy içinde [Çevrimiçi] (s. 97–104). Routledge.

Light, J. S. (1999). “When computers were women”. Technology and Culture, 40(3), 455–483 [Çevrimiçi]. Son erişim tarihi: 9 Mart 2023 http://www.jstor.org/stable/25147356

Lorde, A. (2001). “The transformation of silence into language and action (1977)”. J. Ritchie & K. Ronald (Der.), Available means: An anthology of women’s rhetoric(s) içinde (s. 302–395). University of Pittsburgh Press.

McRuer, R. (2006). Crip theory: Cultural signs of queerness and disability. NYU Press.

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). “A survey on bias and fairness in machine learning”. ACM Computing Surveys, 54(6).

Mumford, E. (2006). “The story of socio-technical design: Re ections on its successes, failures and potential”. Information Systems Journal, 16(4), 317–342.

Muñoz, J. E. (1999). “Disidenti cations. Queers of color and the performance of politics”. University of Minnesota Press. (Cultural studies of the Americas, v. 2).

Munro, E. (2013). Feminism: A fourth wave? Political Insight, 4(2), 22–25.

Nakamura, L. (2014). “Indigenous circuits: Navajo women and the racialization of early electronic manufacture”. American Quarterly, 66(4), 919–941 [Çevrimiçi]. Son erişim tarihi: 9 Mart 2023, http://www.jstor.org/stable/43823177

Palmiotto, F. (2023). Preserving procedural fairness in the AI era [Çevrimiçi] (VerfBlog). Son erişim tarihi: 18 Mart 2023 https://verfassungsblog.de/procedural-fairness-ai/

Ramazanoğlu, C., & Holland, J. (2002). “Reason, science and progress: Feminism’s enlightenment inheritance”. C. Ramazanoğlu & J. Holland (Der.), Feminist methodology içinde (s. 24–40). SAGE Publications.

Schiebinger, L. (1989). The mind has no sex? Women in the origins of modern science. Harvard University Press.

Smyth, T., & Dimond, J. (2014). “Anti-oppressive design”. Interactions, 21,68–71.

Snyder, E. (2014). “Indigenous feminist legal theory”. Canadian Journal of Women and the Law, 26(2), 365–401.

Stoet, G., & Geary, D. (2018). “The gender-equality paradox in science, technology, engineering, and mathematics education”. Psychological Science, 29.

Stryker, S., & Blackston, D. M. (Der.). (2022). The transgender studies reader remix. Routledge.

Taylor, B. (1999). “Feminism and the enlightenment 1650-1850”. History Workshop Journal, 47, 261–272.

Truth, S. (1851). Ain’t I a woman. December, 18, 1851.

Wachter-Boettcher, S. (2017). Technically wrong: Sexist apps, biased algorithms, and other threats of toxic tech. W.W. Norton.

Wajcman, J. (2000). “Reflections on gender and technology studies: In what state is the art?” Social Studies of Science, 30(3), 447–464 [Çevrimiçi]. Son erişim tarihi: 9 Mart 2023 http://www.jstor. org/stable/285810

Zhao, J., Zhou, Y., Li, Z., Wang, W., & Chang, K.-W. (2018). “Learning gender-neutral word embeddings”. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing içinde (s. 4847–4853). Association for Computational Linguistics.

Zou, J., & Schiebinger, L. (2018). “AI can be sexist and racist – it’s time to make it fair”. Nature, 559(7714), 324–326.

Zuberi, T., & Silva, E. (2008). White logic, white methods: Racism and methodology. Lanham, Rowman & Littlefield.

Zuboff, S. (2018). The age of surveillance capitalism: The ght for a human future at the new frontier of power. Public Affairs

[1] Makalenin İngilizceden Türkçeye çevirisinde yapay zekâ destekli bir dil modeli olan ChatGPT’den yararlanılmıştır.

[2] Makalenin orijinali: Digital Transformation Through the Lens of Intersectional Gender Research Challenges and Needs for Action. Bkz. Draude, Claude. “Digital Transformation Through the Lens of Intersectional Gender Research Challenges and Needs for Action.” Hannes Werthner· Carlo Ghezzi· Jeff Kramer· Julian Nida-Rümelin· Bashar Nuseibeh· Erich Prem· (2024): 83. Yazara ve yayınevine Türkçe çevirinin telif haklarını verdikleri için teşekkür ederiz.

[3] Başlığın İngilizcesi “Declaration of the Rights of Man and of the Citizen” – Ç.N.

[4] Feminizm, siyasi bir kitle hareketi olarak, tarihsel evreler, jeopolitik konumlar, katılımcı aktörler ve siyasi talepler bakımından farklılık gösteren üç (ya da dört) dalga olarak tanımlanır. Genellikle, birinci dalga süfrajetleri, ikinci dalga 1960’lar ve 1970’lerin kadın özgürleşme hareketini, üçüncü dalga 1980’lerden itibaren toplumsal cinsiyet üzerine toplumsal inşacı yaklaşımları ifade eder. Dördüncü dalga ise (bakış açısına göre 2000’lerin başından ya da 2012’den itibaren) antifeminist tepkiyle ve teknolojinin ve sosyal medyanın özgürleştirici rolüyle beslenmiştir (Munro, 2013; Evans & Chamberlain, 2015).

[5] Bilimsel bilginin belirli sosyopolitik, kültürel ve tarihsel bağlamlarda nasıl inşa edildiğini izleme, bilim ve teknoloji çalışmaları alanı tarafından gündeme getirilmiştir [örneğin, Bruno Latour ve Steve Woolgar’ın moleküler biyoloji laboratuvarı çalışmaları (1979)]. Ancak kesişimsel, postkolonyal feminist akademisyenler, bilim ve teknoloji çalışmaları alanının toplumsal eşitsizliklerin, marjinalleşmenin ve iktidar ilişkilerinin (yerel ve küresel ölçekte) oynadığı rolü yeterince tanımamasını eleştirmiş ve alanın feminist ya da postkolonyal bir düzeltmeye ihtiyaç duyduğunu ileri sürmüşlerdir (Harding, 1998, 2011; Haraway, 1997).

[6]  İng. situated knowledge. – Ç.N.

[7] İng. Feminist standpoint theory. -Ç.N.

[8] BIPOC [Black, Indigenous, and people of color] siyah veya yerli olan ve beyaz ırktan olmayan insanlar ifadesinin kısaltmasıdır. Bu öz tanımlama, Amerika Birleşik Devletleri ve Kanada’daki aktivizmden doğmuştur ve aynı zamanda farklı ırklardan topluluklar arasındaki dayanışmayı göstermek için de kullanılmaktadır.

[9] Hidden Figures, ABD’de Ulusal Havacılık Danışma Komitesi’nde (National Advisory committee for Aeronautics – NACA) ve daha sonra halefi NASA’da çalışan Mary Jackson, Katherine Johnson ve Dorothy Vaughan’ın hikâyelerini anlatır. Diğer önemli örnekler ise Kay McNulty, Betty Jennings, Betty Snyder, Marlyn Meltzer, Fran Bilas ve Ruth Lichterman’dır.  İlk ABD elektronik bilgisayarı ENIAC’ın asıl programcıları olmalarına rağmen, geleneksel olarak bu bilgisayarın tarihinde bir dipnottan fazlası olarak anılmamışlardır (Light, 1999).

[10] Örneğin, Apple Sağlık, ilk olarak 2014’te piyasaya sürülmüş ve ancak eleştirilerle karşılaştıktan sonra menstrüasyon takibini uygulamaya koymuştur (Eveleth, 2015).

[11] Dikkat çekicidir ki, ABD’de Yüksek Mahkeme’nin Roe v. Wade kararını bozması ve cinsel haklarla üreme haklarının aşınması, insanların menstrüel sağlık uygulamalarını silmelerine yol açmıştır (Garamvolgyi, 2022).

[12] Önyargı ve İnternet üzerine ayrıntılı bir tartışma için, Baeza-Yates ve Murgai’nin bölümüne bakınız. “Bias and the Web”, Introduction to Digital Humanism, A Textbook  içinde, s. 435-462.

[13] Makine öğrenmesine mükemmel bir giriş için, Heitzinger ve Woltran’ın bölümüne bakınız. “A Short Introduction to Artificial Intelligence: Methods, Success Storied, and Current Limitation”, Introduction to Digital Humanism, A Textbook  içinde, s. 135-150.

[14] İng. Word embedding. – Ç.N.

[15] Doğal dil işleme ve doğal dil üretiminde metin analizinde kelime gömme kullanılmaktadır. Metnin bilgisayarlar tarafından işlenebilir olması için önce sayısal bir biçimde temsil edilmesi gerekir. Kelime gömme daha sonra, sözcükleri vektör uzayında bir dönüşüm olarak reel değerli sayısal vektörler şeklinde eşlemeye olanak tanır (Jiao & Zhang, 2021).

[16] Burada verilen örneğin yalnızca ikili toplumsal cinsiyetle ilgili olduğunu lütfen aklınızda tutunuz. Kelime gömmelerde toplumsal cinsiyet tarafsızlığı ve ikili olmayan toplumsal cinsiyet üzerine giderek artan sayıda çalışma bulunmaktadır (örneğin Zhao vd., 2018; Dev vd., 2021).

Leave a Reply