Yapay Zekâ Sistemlerinde "Human in the Loop" Yaklaşımı
Yapay zekâ teknolojileri hayatımızın her alanına girmeye başladı. Bu teknoloji işlerimizi çok kolaylaştırmasına rağmen “halüsinasyon” dediğimiz yanlış bilgi verme ihtimali de elbette var. Bunun için öneri olarak “human in the loop (HITL)” yaklaşımı öneriliyor. Bu yaklaşım basitçe yapay zekâ sonuçlarını işinizde kullanmadan önce doğrulamanız anlamına geliyor.
Ancak bu kavram, sadece basit bir kontrol mekanizmasından ibaret değil. Aslında çok daha derin bir hikâyeyi barındırıyor: İnsan sezgisi, deneyimi ve müdahalesi teknolojiyi ileri taşırken hataları da önleyebilir. Bu durumda HITL, yapay zekâ sistemlerinin tasarımından işletilmesine kadar olan tüm yaşam döngüsünde insan uzmanlığının aktif olarak dahil edilmesini öngören bir metodoloji sunmaktadır
ChatGPT ya da Gemini gibi araçları günlük sohbetlerde kullanırken yapay zekânın yanılması belki çok da büyük bir problem değil. Ama konu, sağlık veya hukuk gibi kritik alanlara geldiğinde, insan müdahalesi hayati bir önem kazanıyor. Avrupa Birliği bunu fark etmiş olacak ki, 2024'te yürürlüğe koyduğu Yapay Zekâ Tüzüğü (EU AI Act) ile yüksek riskli alanlarda insan gözetimini zorunlu hâle getirdi. Amerika Birleşik Devletleri'nde savunma sanayiinde de benzer bir ilke söz konusu; özellikle nükleer kararların merkezinde daima insan olması gerektiği savunuluyor. ABD’de de savunma sanayinde bu yaklaşım benimseniyor.
Sürece insanın dahil olması elbette sorunu tek başına çözmüyor. HITL yaklaşımının başarıyla uygulanması üç temel adım gerektiriyor:
1. İyi Başlangıç: Kaliteli Veriler
Başlangıç noktası, verilerin kaliteli ve doğru hazırlanmasıdır. Yanlış veri, yanlış sonuç demektir. Doğru veriler ise sistemi ileriye taşıyacak güvenilir bir temel oluşturur.
2. Öğrenme ve Düzeltme: İnsan Dokunuşu
Elde edilen ilk sonuçlar üzerine insanın yaptığı yorumlar, süreci iyileştirmek için önemlidir. Fakat insan müdahalesi her zaman çözüm olmayabilir; yanlış müdahale, sistemi daha da kötüleştirebilir. Yakın zamanda yapılan bir araştırma insan müdahalesi olan komutlarda %95 olan yapay zekâ teşhis doğruluğunun %34’e düştüğünü ortaya koydu. Yani yapay zekâ %60 daha fazla doğrulukta teşhis edebilmiş. Böyle bir durumda en zayıf halka insan olabilir.
3. Devamlı Değerlendirme ve Geliştirme
Süreç sürekli izlenmeli ve iyileştirilmelidir. Başarı yalnızca performansı değil, aynı zamanda etik değerleri ve güvenliği de kapsar.
HITL yaklaşımı doğru bir şekilde kurgulandığında çok başarılı sonuçlar elde edilebilir. Örneğin radyoloji kalite kontrolünde rapor inceleme süresinin %80’in üzerinde bir oranda kısaldığını gösteren bir çalışma mevcut.
Finans sektöründe yapay zekâ tabanlı dolandırıcılık ve mali suçlarla mücadele platformu olarak faaliyet gösteren DataVisor dolandırıcıktan kaynaklanan mali kayıpların %60 düşmesini sağladı. Ayrıca dolandırıcılıklar 5 kat daha erken tespit edilebildi.
Bir Avrupa bankasında müşteri temsilcisi departmanında yapay zekâ ve insan iş birliğiyle %35 daha yüksek müşteri memnuniyetine ulaşıldığı belirtilmiştir.
Sonuçta HITL yaklaşımı, insanın en zayıf halka değil, sistemin güçlü bir parçası olmasını hedefliyor. Bunun için de şunlara dikkat etmek gerekiyor:
- Riskleri görün ve önlem alın: Risk yüksekse mutlaka insan müdahalesi devrede olsun.
- İnsan katkısını ölçün: İnsan müdahalesinin ne kadar faydalı olduğunu kontrol edin; eğer gereksizse süreçten çıkarın.
- Süreçleri izleyin ve kaydedin: Belirsizlikleri ve zamanlamaları takip edin ve kayıt tutun.
- Kullanıcı deneyimini iyileştirin: Kullanımı basit ve kullanıcı dostu arayüzler geliştirin.
- Şeffaf olun: İşlemleri denetlenebilir ve anlaşılır biçimde kayıt altına alın.
Bunları yaptığımızda, insan zekâsının yapay zekâyı nasıl şekillendirdiğini ve onu nasıl mükemmelleştirebileceğimizi çok daha iyi anlayacağız.
Yorumlar
Yorum Gönder