Android

Faceapp usuwa filtry „czarny”, „indyjski”, „azjatycki” po publicznym…

FaceApp NIEBEZPIECZNY? To narzędzie ROSJAN! ?

FaceApp NIEBEZPIECZNY? To narzędzie ROSJAN! ?
Anonim

Popularna aplikacja do edycji selfie, FaceApp, która została uruchomiona na początku tego roku i szturmem zdobyła świat selfie, została ostrzelana z powodu aktualizacji interfejsu o nowe filtry, które według wielu użytkowników są rasistowskie.

FaceApp zyskał szeroką popularność, ponieważ używał wyszkolonego algorytmu do edycji zdjęć użytkowników. Korzystając z aplikacji, ludzie mogą edytować swój obraz na kilka różnych sposobów.

Użytkownicy mogą dodawać uśmiech do swojego wizerunku, stać się młodszym lub starszym, zmienić płeć, a nawet zmienić styl.

Jednak dodanie filtrów etnicznych „Indie”, „Azjatyckie”, „Czarne” i „Kaukaskie” okazało się niekorzystne dla reputacji aplikacji. Te filtry zmieniłyby nie tylko cerę i wygląd skóry, ale także styl i kolor włosów.

Więcej aktualności: Ta aplikacja pomoże Ci zrobić idealne selfie

Prezes Yaroslav Goncharov wydał oświadczenie: „nowe kontrowersyjne filtry zostaną usunięte za kilka godzin”.

Użytkownicy nie będą musieli aktualizować swoich aplikacji ze Sklepu Play, aby pozbyć się nowych filtrów, ponieważ zostaną one usunięte z serwera FaceApp.

„Filtry etniczne” FaceApp to dość okropny pomysł. Może to jeden z najgorszych pomysłów ”- napisał jeden z użytkowników Twittera.

Inny użytkownik oskarżył firmę o „ustalanie poprzeczki dla rasistowskiej (rzeczywistości rozszerzonej) dzięki jej nowej, okropnej aktualizacji”.

„Filtry zmiany etnicznej zostały zaprojektowane tak, aby były jednakowe we wszystkich aspektach. Nie wiążą się z nimi żadne pozytywne ani negatywne konotacje. Są nawet reprezentowane przez tę samą ikonę ”, powiedział Jarosław Goncharow The Verge.

Przeczytaj także: To może być najszybszy sposób na robienie selfie na Androida To nie pierwszy raz FaceApp był krytykowany za rasizm. Użytkownicy wcześniej zgłaszali, że „gorący” filtr automatycznie rozjaśnia koloryt skóry na każdym zdjęciu.

Podczas tego incydentu dyrektor generalny firmy stwierdził, że incydent ten został spowodowany, ponieważ algorytm został przeszkolony na podstawie zdjęć osób o jasnej karnacji, w wyniku czego maszyna zaczęła kojarzyć „gorącą” z jasną cerą.

(Z danymi wejściowymi IANS)