|

Teknoloji şirketleri şimdi de sesimize taktı

Teknoloji şirketleri sesimizi kontrol etmek istiyor. Amazon’un yapay zekâ destekli sesli asistanı Alexa için ‘ses taklit etme teknolojisi’ geliştirdiğini açıklaması endişelere sebep oldu. Şirket “Ölen büyükanne artık torununa masal okuyabilecek” derken, projenin farklı amaçlarla kullanılabileceği belirtildi.

Dış Haberler
00:00 - 24/06/2022 Friday
Güncelleme: 22:02 - 23/06/2022 Thursday
Yeni Şafak
Arşiv
Arşiv

Amazon, ülkemizde henüz kullanılmayan dünyaca ünlü sesli asistanı Alexa için ilginç bir güncelleme yayınlamayı planlıyor. Kullanıcılar yeni gelecek güncelleme ile birlikte Alexa’yı aile ya da arkadaşlarından birinin sesini taklit edecek şekilde kullanabilecek. Amazon’un kıdemli başkan yardımcısı Rohit Prasad, şirketin önceki gün Las Vegas’ta düzenlediği bir konferansta, kullanıcıların Alexa’nın bir dakikadan daha az bir ses duyduktan sonra herhangi bir sesi taklit etmesine izin verecek bir sistem geliştirmeyi başardıklarını söyledi. Prasad, hedefin kaybettiklerimizin anılarını kalıcı kılmak olduğunu dile getirdi.

SUİSTİMALLERE AÇIK

Amazon ses tanıma sistemini, insanların hatıralarını korumak diye nitelendirse de, arka planda yeni bir veri toplama hamlesinin olup olmadığı endişelere neden oldu. Daha önce yüz tanıma vb. sistemlerin kötü niyetli kişilerce, siyasi ve ekonomik dolandırıcılık amacıyla kullanabileceği ya da üçüncü taraflara pazarlanabileceği ortaya çıkmıştı. Ses taklit özelliğinin de benzer sorunlara sebep olabileceği değerlendiriliyor. Teknoloji şirketlerinin bu tür konularda denetimden uzak olduğu daha önce Facebook bağlantılı skandallarda ortaya çıkmıştı.

RUHSAL OLARAK KÖTÜ ETKİLEYEBİLİR

Amazon’dan yapılan açıklamaya göre, Alexa’ya eklenecek bu özellik ölen kişinin anılarının taze kalmasını sağlayacak. Ancak bu yeni teknoloji bazı tartışmaları da beraberinde getiriyor. Örneğin ölmesine çok üzüldüğünüz bir kişinin sesini sürekli olarak Alexa’dan duymak, daha fazla üzülmenize neden olabilir ve duygularınız bozulabilir.


#Amazon
#yapay zeka
#Alexa
#ses
#Facebook
2 years ago