MIT doet onderzoek om AI slimmer te maken

MIT Ekibi AI modellerine bilmediklerini öğretiyor.

Yapay zekânın (AI) uygulanması hızla büyüyor ve günlük hayatımızla ile sağlık, telekomünikasyon ve enerji gibi yüksek riskli endüstrilere giderek daha fazla entegre oluyor. Ancak büyük güçle büyük sorumluluk da geliyor: AI sistemleri bazen hatalar yapıyor veya ciddi sonuçlar doğurabilecek belirsiz yanıtlar veriyor.

MIT'nin Themis AI'si, CSAIL laboratuvarından profesör Daniela Rus'un ortak kurucusu ve liderliğinde, çığır açan bir çözüm sunuyor. Bu teknoloji, AI modellerinin 'bilmediklerini bilmelerini' sağlıyor. Bu, AI sistemlerinin tahminleri konusunda ne zaman belirsiz olduklarını kendilerinin gösterebilmesi anlamına geliyor; böylece zarar oluşmadan önce hatalar önlenebiliyor.

Bu neden bu kadar önemli?
Çok sayıda AI modeli, gelişmiş olanlar bile, bazen sözde 'halüsinasyonlar' gösterebilir—yanlış veya dayanıksız yanıtlar verirler. Tıbbi teşhis veya otonom sürüş gibi kararların hayati önem taşıdığı sektörlerde bu yıkıcı sonuçlar doğurabilir. Themis AI, Capsa adında bir platform geliştirerek belirsizlik nicelleştirmesi (uncertainty quantification) uyguladı: AI çıktılarının belirsizliğini ayrıntılı ve güvenilir bir şekilde ölçüp sayısallaştırıyor.

 Nasıl çalışıyor?
Modellere belirsizlik farkındalığı kazandırarak, çıktılara bir risk veya güvenilirlik etiketi ekleyebilirler. Örneğin: bir otonom araç bir durum konusunda emin olmadığını belirtebilir ve bu nedenle insan müdahalesini tetikleyebilir. Bu yalnızca güvenliği artırmakla kalmaz, aynı zamanda kullanıcıların AI sistemlerine güvenini de yükseltir.

Teknik uygulama örnekleri

  • PyTorch ile entegrasyonda modelin sarmalanması (wrapping) şu şekilde gerçekleşir capsa_torch.wrapper() çıktının hem tahmin hem de riskten oluştuğu:

Python example met capsa

TensorFlow modelleri için Capsa bir dekoratör ile çalışır:

tensorflow

Şirketler ve kullanıcılar için etki
Fortis AI ve müşterileri için bu teknoloji büyük bir ilerleme anlamına geliyor. Sadece zeki olmakla kalmayan, aynı zamanda daha güvenli ve daha öngörülebilir, halüsinasyon oluşma olasılığı daha düşük AI uygulamaları sunabiliyoruz. Bu, kuruluşların daha iyi temellendirilmiş kararlar almasına ve iş açısından kritik uygulamalarda AI uygulamaya ilişkin riskleri azaltmasına yardımcı oluyor.

Sonuç
MIT ekip bu, AI’nın geleceğinin yalnızca daha zeki olmakla ilgili olmadığını, aynı zamanda daha güvenli ve adil çalışmakla ilgili olduğunu gösteriyor. Fortis AI olarak, AI’nın gerçek değerinin kendi sınırlılıkları konusunda şeffaf olduğunda ortaya çıktığına inanıyoruz. Capsa gibi gelişmiş belirsizlik nicelleştirme araçlarıyla bu vizyonu pratikte de uygulayabilirsiniz.

Gerard

Gerard AI danışmanı ve yöneticisi olarak aktif. Büyük kuruluşlardaki geniş deneyimiyle bir problemi çok hızlı çözebiliyor ve çözüme odaklanabiliyor. Ekonomik bir geçmişle birleştiğinde iş açısından sorumlu seçimler yapmasını sağlıyor.