32,5632$% 0.14
35,2681€% 0.46
2.466,68%0,15
4.008,00%-0,10
16.049,00%-0,20
2.358,57%0,12
10.712,90%0,29
Brezilya, ABD merkezli Meta’nın, yapay zekâ sistemlerini geliştirmek için Brezilya vatandaşlarının Instagram ve Facebook gönderilerini kullanmasını yasakladı.
BBC’nin haberine göre, Brezilya Ulusal Veri Koruma Ajansı (ANPD), Meta’nın, yapay zekâ temelli konuşma botlarının geliştirilmesi için kullanıcıların gönderilerini kullanmasına izin veren zımnilik siyasetini askıya aldı.
ANPD, kullanıcıların temel haklarının zarar görmesi veya zararın onarılmasının zorlaşması riski üzerine harekete geçtiğini açıkladı.
Bu kapsamda, ülkede 102 milyon Facebook ve 113 milyon Instagram kullanıcısına sahip Meta’nın yapay zekâ sistemlerini geliştirmek için Brezilya vatandaşlarının Instagram ve Facebook gönderilerini kullanması yasaklanmış oldu.
Karar, Meta’nın, Birleşik Krallık ve Avrupa Birliği’ndeki kullanıcıların gönderilerini aynı amaçla kullanmaktan vazgeçmesinin ardından geldi.
9 BİN DOLARLIK CEZA
Meta’ya, alınan kararın ardından 5 iş günü içerisinde saklılık siyasetini değiştirdiğini göstermesi için süre veren ANPD, Meta’nın bu karara uymaması halinde günlük 50 bin Brezilya reali (yaklaşık 9 bin dolar) para cezasına çarptırılacağını açıkladı.
Brezilya Veri Saklılığı kurumundan Pedra Martins de Meta’nın Avrupalı kullanıcılara uyguladığı ile Brezilyalılara uyguladığı tedbirler arasında tutarsızlık olduğuna işaret ederek, ANPD’nin kararını memnuniyetle karşıladığını aktardı.
Martins, Meta’nın yapay zekâ modellerini geliştirmek için Brezilyalı genç ve çocukların da gönderilerini kullanmayı planlarken Avrupa’da 18 yaşından küçüklerin gönderilerinin kullanılmayacağına işaret etti. Öte yandan, Meta’nın sözcüsü, karardan ötürü hayal kırıklığına uğradığını kaydederek bu adımın, Brezilya’daki insanlara yapay zekanın yararlarını sunmayı geciktireceğini ifade etti.
Spot Ethereum Etf Gelişmeleri Hızlandı, Kestirimler Arttı
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.