Kullanıcılar Şiddet ve Cinsel İçeriklerle Karşılaştı
Son günlerde, birçok Instagram kullanıcısı, Reels akışlarında şiddet ve cinsel imgeler içeren önerilen içeriklerle karşılaştıklarını belirterek şikayetlerini dile getirdi. Kullanıcılar, “Hassas İçerik Kontrolü” ayarlarının en yüksek seviyede olmasına rağmen bu tür içeriklerin gösterildiğini iddia ederek, Meta’nın içerik denetleme sistemine tepki gösterdi.
Meta’dan Açıklama ve Özür
Meta, yaşanan bu sorunla ilgili olarak bir açıklama yaptı ve bazı kullanıcıların Instagram Reels akışlarında önerilmemesi gereken içerikleri görmelerine neden olan bir hatayı düzelttiklerini belirtti. Şirket, kullanıcılardan özür dileyerek, içerik önerme sisteminde gerekli düzenlemeleri yapacaklarını ifade etti.
Meta’nın İçerik Politikaları
Meta’nın politikalarına göre, platform kullanıcıları rahatsız edici görüntülerden korumak için şiddet içeren ve grafik içerikleri kaldırıyor. Yasaklanan içerikler arasında parçalanma, iç organların görünmesi, yanmış vücutlar ve insan ya da hayvanlara yönelik sadist ifadeler içeren görüntüler yer alıyor.
Ancak Meta, insan hakları ihlalleri, silahlı çatışmalar veya terör eylemleri gibi önemli konuların gündeme getirilmesi ve farkındalık oluşturulması amacıyla bazı grafik içeriklere izin verdiğini belirtiyor. Bu tür içeriklerin, uyarı etiketleri gibi ek sınırlamalarla sunulabileceği ifade ediliyor.
Kullanıcıların Endişeleri Devam Ediyor
Meta’nın hatayı düzelttiğini açıklamasına rağmen, kullanıcıların içerik önerme algoritmalarına yönelik endişeleri devam ediyor. Kullanıcılar, platformun içerik denetleme sisteminin daha güvenilir ve etkili hale getirilmesini talep ediyor.
Instagram’da yaşanan hassas içerik hatası, sosyal medya platformlarının içerik denetleme sistemlerinin ne kadar önemli olduğunu bir kez daha gösterdi. Meta’nın hatayı düzeltmesi ve özür dilemesi, kullanıcıların tepkilerine verdiği önemi ortaya koyuyor. Ancak, kullanıcıların endişelerinin giderilmesi ve platformun daha güvenli hale getirilmesi için daha fazla çalışma yapılması gerekiyor.