kıbrıs ingiltere londra lefkoşa
DOLAR
32,5383
EURO
34,8823
STERLIN
40,5384
BITCOIN
$66.402
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
LONDRA
Hafif yağmur
10°C
LONDRA
10°C
Hafif yağmur
Çarşamba Parçalı bulutlu
12°C
Perşembe Hafif yağmur
="http://www.w3.org/2000/svg" viewBox="0 0 300 300" enable-background="new 0 0 300 300">
11°C
Cuma Hafif yağmur
="http://www.w3.org/2000/svg" viewBox="0 0 300 300" enable-background="new 0 0 300 300">
15°C
Cumartesi parçalı az bulutlu
="http://www.w3.org/2000/svg" viewBox="0 0 300 300" enable-background="new 0 0 300 300">
15°C

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir
14.09.2022
0
A+
A-

Google’ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı. Ancak algoritmaları dizginlemek için beklemek zorunda değiliz.

Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) şimdi arabaları halka açık yollarda sürüyor, sorgulanan insanlar için değerlendirmeler yapıyor ve ödüllü sanat eserleri üretiyor.

Bu alanda uzun süredir devam eden bir soru, süper zeki bir yapay zekanın kötülüğü yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.

Oxford Üniversitesi ve Google Deepmind’den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.

Makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel” ifadelerini kullandı.

Ödül ceza mekanizmasından yola çıkıldı

Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı.

Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede “etken” adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.

Hile ile tehditleri ortadan kaldırabilir

Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz” ifadeleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir.

Bunun sonucunda insanlara zarar vermesi de muhtemel.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.