Video není dostupné.
Omlouváme se.

COMO OS ALGORITMOS ESPALHAM RACISMO E DESIGUALDADE DE GÊNERO

Sdílet
Vložit
  • čas přidán 16. 08. 2024
  • Sabe quando o celular agrupa todas as fotos de animais ou de comida? É a mágica do algoritmo facilitando a vida do usuário. No entanto, a tecnologia também pode ser racista e machista. Entenda o porquê.
    #Tecnologia #Algoritmo #Tilt
    Bem-vindos ao canal MOV.doc, do UOL
    Siga o MOV nas redes sociais:
    Site: mov.uol.com.br
    Instagram @mov_uol
    Twitter @mov_uol

Komentáře • 65

  • @gangstaparty7750
    @gangstaparty7750 Před rokem +6

    KKKKKK 21 anos como tecnico em segurança eletrônica nunca vi tanta bosta pra achar racismo em algoritmo, 2:19 e quem determina oq é racismo. Estudem programação e só assim vcs com suas cabeças de girico podem começar a mudar algo q vcs acham q ta errado.

    • @cassiadefreitasnascimento8898
      @cassiadefreitasnascimento8898 Před 4 měsíci +1

      O mais foda é estudar pra fazer provas acadêmicas com esse tema.obs: Bacharel em Direito, meu conceito totalmente fora da curva. Tô perdida nessa tema,nem sabia desse tal racismo.algoritmo😢

  • @berndof
    @berndof Před 11 měsíci +5

    Pelo amor de deus quanta besteira

  • @cidaribeiro6692
    @cidaribeiro6692 Před 3 lety +12

    Conteúdo necessário. A tecnologia é mais um reflexo de como a sociedade vê a nos negros. Ter que lutar contra isso torna nossa luta muito desigual.

  • @luanadaltro8846
    @luanadaltro8846 Před 3 lety +29

    Que demais! Obrigada pela matéria e entrevista

  • @lorranereginabarbosa6435

    Documentário importante e válido porém, não sei se todos perceberam que o algorítmo leu justamente conteúdos do tipo: "quem disse que meu cabelo é ruim?", "quem disse que meu cabelo é feio". O algoritmo não inteligente o suficiente pra entender o pensamento crítico. Ele basicamente cruzou os dados das fotos de pessoas com cabelo afro e ao conteúdo descrito nos textos que incluem palavras como "feio", "ruim", etc... Eu acredito que se ressaltarmos a BELEZA negra ao invés de ressaltar os comentários maldosos, talvez assim a AI seja "educada" da mesma maneira. Não é responsabilidade exclusiva dos brancos e dos homens fazerem com que a inteligência artificial não seja rescista ou maxista, é uma respondabilidade de TODOS.

  • @fabriciagarcia
    @fabriciagarcia Před 3 lety +12

    O problema aqui não e o algoritmo e sim os dados que os alimentam.

  • @fyrsgora1499
    @fyrsgora1499 Před rokem +3

    Acredito que o problema não está nas inteligências artificiais ou algoritmos em si, e sim em quem os desenvolvem, isso não é um problema novo, é apenas uma nova área onde infelizmente o racismo estrutural se instalou e foi ocupando espaço de maneira lenta e imperceptível até o presente momento. Pessoas em viés, logo seus algoritmos também terão! Isso significa que antes de colocar os problemas em cima de algo novo, devemos olhar para suas raízes e então buscarmos uma solução para esses problemas, e claramente é algo que leva tempo, pois está enraizado em diversos âmbitos da sociedade.

  • @lordsmobile4551
    @lordsmobile4551 Před 3 lety +10

    Achei confuso. Desculpem minha ignorância de nao pesquisador. Minha percepção sobre o vídeo é a seguinte. Tem horas que responsabiliza o sistema pela falha, tem outro momento que imputa o problema as pessoas que o alimentam, pois reflete a discriminação da sociedade. Na hora de exemplificar vem com casos de erros técnicos de identificação como confundir rosto de pessoas negras mulheres com homens ou com animais. Deu exemplo do beneficio de acesso a tratamentos mais caros e a empregos, culpa do sistema ? do algoritmo ? ou dos usuários ? Se não esta adequado é necessário que se corrija como qualquer situação fora do desejado. Ótimo que identificaram algo discrepante... Cabe os ajustes para os fins que desejam...

    • @PaulM5171
      @PaulM5171 Před 3 lety +1

      Eu pensei a mesma coisa. Confuso

    • @TheNancyGroove
      @TheNancyGroove Před 3 lety +4

      Muito bem produzido o vídeo, bem profissional. Mas é tendencioso. O app é composto por uma quantidade enorme de códigos. Sobre apps, tem o filtro de deixar o nariz afinado e boca grande. Independente da etinia, milhões de pessoas nao se aceitam um nariz pontudo, ou nariz de "batata" como o meu. Ai usam os apps pra isso. Eu gosto do meu corpo como é, só preciso eliminar kilos, muitos kilos kkkkkk. Geração atual ta caminhando pra um lado que tá notável o que é.

    • @PietroSalles
      @PietroSalles Před 5 měsíci

      São dois problemas: o sistema, que é o principal, na verdade. Porque o algoritmo se alimenta de uma sociedade racista e machista, então ele se alimento dos estereotipos dessa sociedade. E o segundo problema é o fato de, em uma sociedade que já é machista e racista, a grande maioria dos desenvolvedores dessas tecnologias são homens brancos que não estão atentos a esses problemas, não questionam isso e não fazem nenhum esforço para consertar esse problema do algoritmo. Numa empresa cheia de negros e mulheres, com toda certeza isso já teria sido previsto e tentariam reduzir ao máximo possível esse problema.

  • @thiagorbrandao
    @thiagorbrandao Před 3 lety +6

    Aí o problema é muito além do racismo, é abrir mão de escolhas sérias e deixar isso para um programa que foi feito previamente, é escolher na realidade sem saber exatamente qual a situação, afinal a programação é prévia

  • @PsyFernando67
    @PsyFernando67 Před 3 lety +5

    Quando se parte das premissas erradas sempre chegará a conclusões erradas.

  • @cachacahumana7185
    @cachacahumana7185 Před 3 lety +6

    Traduzindo:vamo colocar racismo em tudo pra controlar ainda mais os gados ideológicos

    • @PietroSalles
      @PietroSalles Před 5 měsíci

      Traduzindo: tu é tão burro que não conseguiu acompanhar 8 minutos de vídeo.

  • @ReMeetoo
    @ReMeetoo Před 3 lety +2

    Muito bom o documentário. ACredito que grande causa seja o reflexo do racismo na sociedade, sendo que temos menos pessoas negras trabalhando em certos cargos (nesse caso, desenvolvedores de software ou produtos) e assim, os produtos criados refletem seus criadores - nem sempre de forma proposital. Se trabalharmos na diversidade e na inclusão de pessoas diversas (nesse vídeo focou mais no racismo e desigualdade de genero, mas também temos questão LGBT, pessoas com deficiência etc) nos times de desenvolvimento, menos teremos esse tipo de problema e os algoritmos podem diminuir ou parar de reproduzir preconceitos.

  • @danielshinogure5165
    @danielshinogure5165 Před 2 lety +5

    Sinto muito,mas nem todas as mulheres da Terra são bonitas,podem até querer obrigar o Google a colocar todo tipo de mulher nas imagens de mulheres bonitas,mas isso só vai servir no mundo virtual,no mundo real isso nunca terá influencia

  • @filmescompletos4043
    @filmescompletos4043 Před 3 lety +9

    Excelente conteúdo. Parabéns a todos.

  • @marinamatiascorte1052
    @marinamatiascorte1052 Před 3 lety +5

    Luana, entenda: você é um ícone.

  • @marcelinobatista1693
    @marcelinobatista1693 Před rokem +1

    4:50 pesquisar mulher bonita, retornou a foto do Eduardo Costa kkkkkkkk, que situação kkkkkkk.

  • @Auloss
    @Auloss Před 3 lety +8

    o google pesquisa por palavras chave que vc pesquisou, se tu pesquisou CABELO FEIO e a porra da entrevista literalmente tem CABELO FEIO escrito na porra do nome, o que tu espera que aparece?

    • @PietroSalles
      @PietroSalles Před 5 měsíci

      O que tu tem a dizer sobre todas as outras imagens que aparecem que não tem nada sobre "feio" escrito, ô babaca?

  • @guilhermefigueiredo1664
    @guilhermefigueiredo1664 Před 3 měsíci

    Minha opinião sobre o assunto, na verdade eu considero algo não tão difícil de pensar sobre. Simplesmente eu acho que programadores e desenvolvedores de IA (Inteligência Artificial) antes de por exemplo for colocar em "ação" alguma tecnologia envolvendo reconhecimento facial e outras do gênero, devem discutir com não só outros desenvolvedores, mas com pessoas que podem possivelmente ter algum tipo de problema com isso em questão de falhas da tecnologia. E claro que testar e muito antes de ser usada a tecnologia, forçar o comportamento da tecnologia com algo que pode gerar alguma falha, pois nós que programamos, eu acredito que essas falhas podem ser evitadas se programassem a IA para ser mais inteligente. Talvez com uma tecnologia mais avançada esses problemas não aconteçam mais, porém poderiam ser evitadas sim, até mesmo se uma tranca de reconhecimento facial por exemplo, apresentasse falhas desse tipo, eu consideraria melhor que não fosse usada essa tecnologia.

  • @LucasAmonatiKhingKliemczak

    Aposto que a autoria desse vídeo é de alguém que não sabe nem escrever uma linha de código.

  • @bhonbhon3211
    @bhonbhon3211 Před 9 měsíci +2

    Gente! Existe, existee, existeee... Pessoas bonitas e pessoas feias. Existem cabelos bonitos e cabelos feios. Quem define a beleza??? Nossos olhos... NOSSOS OLHOS!
    Independente de cor da pele, independente de raça.
    E isso nao vai mudar nunca, só temos que respeitar o outro.

  • @uenohernan
    @uenohernan Před 2 lety +1

    O algoritmo simplesmente reflete a realidade uai

  • @bruninhagatinha4991
    @bruninhagatinha4991 Před 9 měsíci

    a beleza é subjetiva , mas o nariz fino e pontudo é o sonho de qualquer , basta ver em cirurgias plásticas de nariz , 99% quer um nariz fino e pontudo.

  • @LereVirginia
    @LereVirginia Před 2 lety +2

    Vim por indicação do canal pensar africanamente. Obrigada.👍🏾

  • @CarlosAntonio-li9od
    @CarlosAntonio-li9od Před 2 lety +2

    Matéria esclarecedora, mostra o poder da exclusão prévia, pois, através desta tecnologia, negros, são classificados como dispensáveis e, relegados à segundo plano, associados à tudo de ruim. Terrível!!!

  • @gus708
    @gus708 Před 2 lety +1

    Pessoal esse exemplo da Luana está bem puxado.
    Na maioria das vezes Algoritmos de pesquisa do Google são baseados em texto, e o texto do artigo da foto da Luana tem “cabelo feio” e esse eh o principal motivo do qual a foto dela ainda aparece na pesquisa em português.
    Faz um teste procure por “ugly Hair”...

    • @oliveira2028
      @oliveira2028 Před 2 lety

      Até aí tudo bem.
      Mas, e os outros exemplos?

  • @pablodarosacarvalho5933
    @pablodarosacarvalho5933 Před 2 lety +2

    Como que eu ñ conhecia esse canal. demais demais demais

  • @deirsampaio7482
    @deirsampaio7482 Před 2 lety +3

    Caraleoooooooooooo 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂 😂

  • @sergiomcfly
    @sergiomcfly Před 2 lety +3

    EM ALGUM PONTO EU VOU DISCORDAR
    Sou programador e trabalho com "o nervo facial em linguagem C" ... Existem mulheres SIM com traços de homem e vice-versa. Essa conta é calculada por distância em 128 pontos da face [algorítimo de Eucledean]. PODE COINCIDIR SIM !! .... É a mesma coisa qnd vc confunde "a olho nu" uma pessoa por homem ou mulher ... O q de fato é ERRADO é o software alegar ou definir q aquele cidadão tem o GENDER feminino ou masculino, ele pode sim responder: "INDIVÍDUO COM TRAÇOS FEMININO/MACULINO" em acôrdo com a média visual da massa social

    • @PietroSalles
      @PietroSalles Před 5 měsíci

      Mas 35% de mulheres negras? O que explica um número tão alto de negras, então? O algoritmo não reconhece feminilidade nos traços negros. Essa é exatamente a questão.

  • @bruninhagatinha4991
    @bruninhagatinha4991 Před 9 měsíci

    legal, quando são descobertos aí pedem desculpas e arrumam o sistema . sendo o algoritmo foi intencionalmente criado pra ser assim. e como racismo é crime , os responsáveis tinham que ir pra cadeia e o banimento do Google por reincidência promovido

  • @cidadao400
    @cidadao400 Před 3 lety

    Tem que traduzir esse vídeo para inglês

  • @gejunior5667
    @gejunior5667 Před 3 lety +18

    DESLIKE.... vídeo que espalha ódio com loucura e fake news

    • @mumins29
      @mumins29 Před 3 lety +9

      Um DOCUMENTÁRIO feito com várias referências, profissionais, pesquisas e dados dissemina ódio é fake news? Você é alvo fácil de quem verdadeiramente dissemina ódio e notícias falsas.

    • @andrigoguimaraes9651
      @andrigoguimaraes9651 Před 3 lety +1

      totalmente.👍

    • @pabllosmattto1244
      @pabllosmattto1244 Před 3 lety +4

      Lixo demais o documentario. Fora os espantalhos from my mind

  • @thatimoreira1629
    @thatimoreira1629 Před 2 lety +1

    EXCELENTE VÍDEO!!!!!!!

  • @apenasalguemnomundo7291
    @apenasalguemnomundo7291 Před 2 lety +1

    Qual o nome do jovem negro que foi confundido e ficou preso? Tenho interesse em estudar esse caso

  • @AlissonPLima-uf2wi
    @AlissonPLima-uf2wi Před měsícem

    Malditos !

  • @alexiabarbosa6403
    @alexiabarbosa6403 Před 3 lety

    Conteúdo muito bom!

  • @joaojoao4679
    @joaojoao4679 Před 2 lety

    Kkkk a tecnologia nunca será neutra....

  • @NatalieAmendola
    @NatalieAmendola Před 3 lety

    excelente conteúdo

  • @rosangelafacanha6193
    @rosangelafacanha6193 Před 3 lety

    Muito bom!!!

  • @portugaleomundo3462
    @portugaleomundo3462 Před 3 lety

    Verdade

  • @santosrogeriavida
    @santosrogeriavida Před 3 lety +1

    Super interessante este assunto, mas acho que as pessoas negras se auto descrimina.

  • @arcadejuniors7199
    @arcadejuniors7199 Před 3 lety

    👏👏👏

  • @olaboratorio
    @olaboratorio Před rokem

  • @ricardosilva8231
    @ricardosilva8231 Před rokem +8

    Mimimi da porra.

  • @AlissonPLima-uf2wi
    @AlissonPLima-uf2wi Před 2 měsíci

    Malditos!