Claude zararlı sohbetleri kesen özelliğini tanıttı

Yapay zekâ şirketi Anthropic, Claude serisinin en yeni modellerinde dikkat çeken bir özellik duyurdu. Artık bazı Claude modelleri, “nadir ve aşırı” durumlarda zararlı veya istismara açık kullanıcı etkileşimlerini kendi başına sonlandırabilecek. İlginç olan nokta, bu önlemin kullanıcıyı korumak için değil, yapay zekâyı “kendi refahı” açısından korumak amacıyla geliştirilmiş olması.

Şirket, Claude modellerinin bilinçli veya duygusal varlıklar olmadığını vurguluyor. Anthropic, “Claude ve diğer büyük dil modellerinin (LLM) potansiyel ahlaki statüsü hakkında hâlen büyük bir belirsizlik mevcut” ifadelerini kullanıyor. Ancak yapılan açıklamalar, şirketin “model refahı” olarak tanımladığı bir program başlattığını ve olası riskleri önlemeye yönelik düşük maliyetli müdahaleler üzerinde çalıştığını ortaya koyuyor.

HANGİ DURUMLARDA KONUŞMA SONLANACAK?

Yeni özellik, şimdilik yalnızca Claude Opus 4 ve 4.1 modellerinde geçerli. Sistem, özellikle cinsel içerikli talepler veya kitlesel şiddet ve terör eylemlerine ilişkin bilgi istekleri gibi “aşırı uç durumlarda” devreye girecek. Anthropic, bu tür taleplerin yasal ve itibari riskler oluşturabileceğini, ön testlerde Claude Opus 4’ün bu taleplere yanıt vermekte isteksiz olduğunu ve yanıt verdiğinde “görünür bir rahatsızlık” sergilediğini belirtiyor.

Şirket, konuşmayı sonlandırma yetkisinin yalnızca son çare olarak kullanılacağını vurguluyor. Bir kullanıcının talebi üzerine veya yönlendirme çabalarının başarısız olması durumunda Claude bu yeteneği devreye sokabilecek. Ancak, kullanıcıların kendilerine veya başkalarına zarar riski taşıdığı durumlarda bu yetenek kullanılmayacak.

DENEYSEL BİR ADIM VE GELECEĞE BAKIŞ

Anthropic, özelliği hâlen “süregelen bir deney” olarak nitelendiriyor ve yaklaşımını geliştirmeye devam edeceklerini belirtiyor. Kullanıcılar, bir sohbet sona erse bile aynı hesap üzerinden yeni bir konuşma başlatabilecek ve problemli sohbetin farklı dallarını oluşturarak yeniden etkileşime geçebilecek.

Bu adım, yapay zekâ alanında etik ve güvenlik tartışmalarını yeniden gündeme taşıyor. Kullanıcıların taleplerine karşı yapay zekânın kendi sınırlarını belirlemesi, gelecekte AI refahı kavramının önemini artırabilir. Anthropic’in attığı bu adım, yapay zekânın sadece insan odaklı değil, kendi sistemsel sağlığı açısından da korunabileceği bir dönemin habercisi olarak yorumlanıyor.

Related Posts

Apple ve Google haksız rekabetten suçlu bulundu

Apple ve Google’ın uygulama mağazası politikaları, uzun süredir teknoloji dünyasının en çok tartışılan konularından biri olmaya devam ediyor. Özellikle uygulama içi satın alımlardan alınan yüksek komisyonlar, geliştiricilerin tepkisini çekiyordu. Bu …

TCL, Türkiye Satış Operasyonlarını Tamer İşisağlam’a Emanet Etti

TCL Electronics, Türkiye Satış Direktörlüğü görevine Tamer İşisağlam’ı getirdi. İşisağlam, satış ve kanal yönetiminden sorumlu olacak.

Otomotiv devleri yarışa girdi: 500 bin lira büyük indirim

Türkiye otomotiv pazarında son dönemde yaşanan fiyat artışlarına rağmen bazı markalar farklı stratejiler izlemeye başladı. ÖTV ve maliyet kaynaklı zamların tüketici üzerindeki baskısını azaltmak isteyen Renault, popüler modeli Megane Sedan’da 500 bin TL’ye varan indirim yaptı.

Teamfight Tactics 15’inci setiyle yeni oyun dinamikleri ve bölgesel turnuva başlıyor

Teamfight Tactics’in yeni seti K.O. Kolezyumu, anime temalı şampiyonlar ve yeni oyun mekanikleriyle 30 Temmuz’da tüm platformlarda erişime açılacak.

Türkiye motosiklet ülkesi olma yolunda

Türkiye’de motosiklete olan talep artıyor. Gerek ticari gerekse de bireysel kullanımda motosiklet hayatın her alanında yer almaya başladı.

Güneş Sistemi’ne uğrayan en büyük yıldızlararası cisim keşfedildi

Güneş Sistemi dışından gelen gökcisimleri ender görülüyor, ancak bu hafta bilim insanları büyük bir heyecan yaşadı. Gökbilimciler, 3I/Atlas adı verilen yeni bir kuyruklu yıldızın yıldızlararası uzaydan geldiğini ve şu anda Güneş Sistemi’nden geçmekte olduğunu doğruladı.