Puslu 0ºC Ankara
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Aksaray
  • Amasya
  • Ankara
  • Antalya
  • Ardahan
  • Artvin
  • Aydın
  • Balıkesir
  • Bartın
  • Batman
  • Bayburt
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Düzce
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkari
  • Hatay
  • Iğdır
  • Isparta
  • İstanbul
  • İzmir
  • Kahramanmaraş
  • Karabük
  • Karaman
  • Kars
  • Kastamonu
  • Kayseri
  • Kırıkkale
  • Kırklareli
  • Kırşehir
  • Kilis
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Mardin
  • Mersin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Osmaniye
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Şanlıurfa
  • Şırnak
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Uşak
  • Van
  • Yalova
  • Yozgat
  • Zonguldak
Dünya
The Vice, Independent 14.09.2022 12:01

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir

Google'ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı. Ancak algoritmaları dizginlemek için beklemek zorunda değiliz.

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir
[Fotograf: AA]

Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) şimdi arabaları halka açık yollarda sürüyor, sorgulanan insanlar için değerlendirmeler yapıyor ve ödüllü sanat eserleri üretiyor.

Bu alanda uzun süredir devam eden bir soru, süper zeki bir yapay zekanın kötülüğü yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.

Oxford Üniversitesi ve Google Deepmind'den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.

Makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.

Ödül ceza mekanizmasından yola çıkıldı

Makalede yapay zekanın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı.

Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.

Hile ile tehditleri ortadan kaldırabilir

Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir.

Bunun sonucunda insanlara zarar vermesi de muhtemel. 

Sıradaki Haber
Almanya polisinden Arap kökenli kişiye orantısız şiddet
Yükleniyor lütfen bekleyiniz