¿Cómo discrimina la inteligencia artificial? ¿Quienes son sus víctimas?

Sdílet
Vložit
  • čas přidán 6. 04. 2021
  • La inteligencia artificial potencia todo tipo de actividades hoy. Desde el reconocimiento facial para desbloquear tu telefono o para pagar sin efectivo. Sin ambargo los algoritmos aplicados al control social, la seguridad y la identificación de pesronas cada vez más registran problemas ¿porqué?¿Puede una IA ser racista? Les traemos ejemplos de China y Estados Unidos en donde su uso es más que polémico.
    𝗖𝗼𝗻𝘁𝗲𝗻𝗶𝗱𝗼
    00:30 Reconocimiento digital: De un ejercicio simple a un problema generalizado
    01:48 Los sistemas de reconocimiento fallan en función del color de la piel​
    04:39 El controvertido software chino que afirma identificar a personas de la etnia Uigur
    08:13 Los sistemas de "Policía Predictiva" [predictive policing]
    Enlaces: El magacín de tecnología y cultura digital de Deutsche Welle
    Presentador: Juan Sebastián Gomez [IG/TW @jsebastiangomez]
    Producción: Pablo López, Juan Sebastián Gómez.
    Comparte este video: • ¿Cómo discrimina la in...
    Abónate a nuestra lista
    𝗧𝗲𝗰𝗻𝗼𝗹𝗼𝗴𝗶𝗮 𝘆 𝗺𝘂𝗻𝗱𝗼 𝗱𝗶𝗴𝗶𝘁𝗮𝗹:
    • Tecnología y mundo dig...
    #racismodigital #reconocimientofacial #predictivepolicing #InteligenciaArtificial #EnlacesDW #discapacidad #discriminacion #BigData #rastreodigital

Komentáře • 1,1K

  • @hifrogeno409
    @hifrogeno409 Před 3 lety +174

    Finalmente Una MAQUINA FUNADA

    • @jonwich...9597
      @jonwich...9597 Před 3 lety +5

      Si jajaj aparte del hombre a alguien tenian que darle

    • @nobodyhuman7947
      @nobodyhuman7947 Před 3 lety +3

      Próximamente funan a Hittler por racista 😠👊

    • @samuelmorales6542
      @samuelmorales6542 Před 3 lety +1

      Verga, se cumplió la profesia

    • @oscaralvarez8530
      @oscaralvarez8530 Před 3 lety

      8:18 *LEGO*

    • @wex360s5
      @wex360s5 Před 3 lety +5

      @@nobodyhuman7947 de hecho en su epoca lo funaron tanto que se mato jsjsjs

  • @starvostokcres
    @starvostokcres Před 3 lety +302

    Esto ya se veía venir, como el ejemplo que a veces pongo, si escribo en chino, envio audios en chino y hablo con chinos, el algoritmo creera que soy chino, cuando en realidad solo quiero aprender chino

    • @claptonelyarnorthon4912
      @claptonelyarnorthon4912 Před 3 lety +48

      Yo lo hago en portugués, español, inglés y francés. Y el estúpido algoritmo me cree hindú🤣 está drogo el algoritmo

    • @sofiaalejandraromero1693
      @sofiaalejandraromero1693 Před 3 lety +27

      Me pasa lo mismo, estoy aprendiendo ruso y ahora me salta todo el tiempo publicidades de empresas rusas.

    • @starvostokcres
      @starvostokcres Před 3 lety

      @@claptonelyarnorthon4912 Te sorprenderías de cuantos errores así hay en realidad porque crees que hay vídeos de youtube que sin ser permitidos siguen ahí mientras que los que estan en inglés no 🤣

    • @starvostokcres
      @starvostokcres Před 3 lety +2

      @@sofiaalejandraromero1693 Justo hoy en la mañana entre a un canal de youtube de carros y me salio un anuncio de seguros para carros 🤣

    • @cnnibal
      @cnnibal Před 3 lety +7

      yo hablo en inglés y veo videos en inglés y m siguen apareciendo cosas en español lol

  • @icebear8773
    @icebear8773 Před 3 lety +97

    sinceramente este reportaje me parece un absurdo de manipulación, ¿cuantas veces no se ha equivocado al revés de relacionar la mano blanca con la pistola y la negra con otra cosa? ¿una tipa tenía problemas con UN software de reconocimiento cuando hay cientos de otros software dando vueltas en redes sociales como el que te cambiaba de sexo en facebook y funciona perfectamente con cualquier tipo de piel? que el problema son las camaras hechas por "HOMBRES BLANCOS" (solo les faltó decir heterosexuales) cuando hay un montón de modelos y actores negros que se ven espectaculares a través de las camáras, no sé si esa señora conocerá las cámaras de los últimso 2 siglos pero no se diseñan para que los "hombres blancos" se vean bien, se diseñan pensando en captar con la mayor fidelidad el mayor espectro de colores posibles y con variedad de condiciones de luz... solomente agarraron un montón de sucesos puntuales y quieren hacerlos pasar como algo sistemático.

    • @axeltrance
      @axeltrance Před 3 lety +4

      bien

    • @jonatanmercadocortegana5496
      @jonatanmercadocortegana5496 Před 3 lety +8

      El análisis más estúpido que he leído hoy

    • @MessalaSeverus
      @MessalaSeverus Před 3 lety +4

      @@jonatanmercadocortegana5496 análisis de quién?

    • @Leo-rl3ui
      @Leo-rl3ui Před 3 lety +6

      @Dhemmlerf Esta hablando del espectro de luz infrarrojo una falla en el sensor que llaman camara debido a que solo detecta la luz infraroja reflejada por la piel blanca no es una camara con amplio espectro ._. y sí es un caso partícular que seguramente este ya solucionado

    • @uveantonio4094
      @uveantonio4094 Před 3 lety +2

      basado

  • @Cronoro
    @Cronoro Před 3 lety +381

    Muchas gracias por tan fascinante documental 🤩 ya me estaba empezando a indignar por no encontrar algo de que ofenderme hoy 🤩

    • @pm3711
      @pm3711 Před 3 lety +14

      Ajajajajajaja

    • @sergiogalindo6148
      @sergiogalindo6148 Před 3 lety +63

      Cuando los terminators nos exterminen solo quedaran los africanos porque el software no los reconocerá.
      Y los africanos heredaran la tierra....

    • @Samthahoff
      @Samthahoff Před 3 lety +7

      @@sergiogalindo6148 😂🤣🤣🤣🤣🤣 no seas mamón

    • @JeamLeppard
      @JeamLeppard Před 3 lety +21

      Ofenderse por todo... tipico de esta era 🤗

    • @HistoriaenCeluloide
      @HistoriaenCeluloide Před 3 lety +17

      Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

  • @elcovid1272
    @elcovid1272 Před 3 lety +126

    Jajaja si dio risa el primer ejemplo que dieron jajaja

    • @brayanpalma1672
      @brayanpalma1672 Před 3 lety +5

      "Eso es racista...", ya sabes lo siguiente....

    • @elcovid1272
      @elcovid1272 Před 3 lety +8

      Jajaja si, pero igual me rei bien agusto jajaja crei que simplemente la inteligencia artificial no iba a reconocer la mano por ser negra jajaja

    • @starvostokcres
      @starvostokcres Před 3 lety +3

      Es que ya se acostumbro 🤣

    • @HistoriaenCeluloide
      @HistoriaenCeluloide Před 3 lety +6

      Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

    • @anonimus2990
      @anonimus2990 Před 3 lety

      @@HistoriaenCeluloide concuerdo contigo pero no hagas copy pega en todos los comentarios

  • @aidep9653
    @aidep9653 Před 3 lety +56

    Por fin un video de DW con los comentarios activados... pero no se que decir....uuuh

    • @narumichi821
      @narumichi821 Před 3 lety +1

      X2

    • @dan96mv
      @dan96mv Před 3 lety +1

      X3

    • @mentrion1
      @mentrion1 Před 3 lety

      Q es una tonteria? Una MAQUINA RACISTA? Porque fue construida x blancos? 🖖👽

  • @piedramultiaristas8573
    @piedramultiaristas8573 Před 3 lety +139

    Porque no se les vigila así a los políticos si estadiscamente son los que mas roban?

    • @PRODUCCIONESJAIMEFT
      @PRODUCCIONESJAIMEFT Před 3 lety +9

      No digas tonterias, son ellos mismos quienes los implementan, es totalmente ilógico que lo usen en su contra genio.

    • @arm4013
      @arm4013 Před 3 lety +1

      por que ellos pagan, con nuestro dinero pero ellos pagan así que ellos mandan.

    • @romardu8587
      @romardu8587 Před 3 lety +2

      Porque a ellos y su élite corrupta les sirven éstas herramientas

    • @pacharrini8462
      @pacharrini8462 Před 3 lety

      Porque será ellos quienes lo manejan? Dah

    • @rmramirezc
      @rmramirezc Před 3 lety +2

      Los políticos solo son el reflejo de la sociedad a la que representan.

  • @microcraftcienciologo9329
    @microcraftcienciologo9329 Před 3 lety +38

    Ya entiendo porque casi siempre bloquean los comentarios, probablemente no les gusta que se burlen de ellos cada que dicen una tontería

    • @Alpha-zg8zy
      @Alpha-zg8zy Před 3 lety

      XDDDD

    • @user-um6qt4vi4k
      @user-um6qt4vi4k Před 3 lety +4

      Jajajajaj de verdad piensas que la credibilidad de una periodística alemana depende de la opinión cómica de "microcraft cienciólogo". Tan siquiera ¿entiendes todo el contexto racista, sociológico, e incluso tu que eres latino , el como te puede afectar esto?

  • @Daroshin
    @Daroshin Před 3 lety +79

    Eso no es racismo, es un algoritmo mal entrenado, con una solución simple, hablar que el hombre blanco tiene la culpa es racista, si en tu país casi no existe población de otra etnia, es seguro que la entrenadas para las mayorías. Las mayorías siempre van a tener la ventaja es algo democrático y casi biológico

    • @kkkaaa5967
      @kkkaaa5967 Před 3 lety +5

      africanos,musulmanes y otras etnias migran masivamente actualmente a europa y desde siempre a usa asi que pues si bien quiza ahora se encuentren mas blancos que negros eso puede ser muy diferente en unos años con una europa cuya poblacion autoctona esta cada vez mas envejecida

    • @starvostokcres
      @starvostokcres Před 3 lety +2

      @@kkkaaa5967 Sí, pero no todos estan en domde se brindan los filtros ni menos quierem brindar sus datos, tienen más detalles que eso añadiendo que en ciertos lugares es casi imposible encontrarlos que en otros, los lugares son variables incluso dentro de un mismo país

    • @xaviwarrior1
      @xaviwarrior1 Před 3 lety

      Ahhh, basado en la tirania de las mayorías, de la gran masa "culta" jaa

    • @daniels35
      @daniels35 Před 3 lety

      Correcto

    • @Daroshin
      @Daroshin Před 3 lety +8

      Mi comentario va más en relación que se exagera con el término racismo, osea tengo un gato blanco y ya soy racista. Los algoritmos de IA no son perfectos y tienden a confundirse siempre, y si están más entrenados van a tener un sesgo hacia un lado... Es cosa de trabajar y entrenarlo mejor, con fotos parecidas de un plátano dependiendo de la luz puede decir que es una pistola 😅, es muy común... pero no es racista por qué el plátano sea amarillo o café...😅, Es cosa de hablar con un asistente de voz y vas a ver que no te entiende bien 😂, "quiero una tasa" a "quiere una papa" no una tasa, así una rana...😅

  • @joseeliascarmonabello9813
    @joseeliascarmonabello9813 Před 3 lety +377

    Si Pedrito tiene 4 manzanas y Pablito le roba 3, ¿de qué color es Pablito?, este chiste me lo contó Alexa. XD

  • @charlycharly933
    @charlycharly933 Před 3 lety +85

    Jsjjajajaj una pistola. C mamó

    • @SpaceDone1994
      @SpaceDone1994 Před 3 lety +11

      Solución, eliminar la parabra gun

    • @qufman2108
      @qufman2108 Před 3 lety +15

      Lo mas gracioso esque cuando pintaron la mano la pintaron con Paint y el adgoritmo haaa es un Ario entonces son unos prismáticos.

    • @letras9920
      @letras9920 Před 3 lety +1

      Jaja xd

    • @universo25.63
      @universo25.63 Před 3 lety +14

      Era obvio
      La mayoría de asaltos a mano armada don por negros
      La IA solo usa matematicas eficientes

    • @Ser.jes98
      @Ser.jes98 Před 3 lety +5

      Cuando una mano negra agarra un objeto con esas características lo más común es que sea una pistola, no es culpa de la inteligencia artificial.

  • @velacalaca
    @velacalaca Před 3 lety +22

    En un futuro tener el color de piel más oscura será la onda ya que no te pueden leer 😂

  • @ernestoj.aguilar7492
    @ernestoj.aguilar7492 Před 3 lety +7

    No veo racismo intensionado aquí, el mercado se encargará de ajustar las tecnologías.
    Como bien mencionan las expertas, el resultado de los algoritmos depende de los datos que utlizan para entrenarlos, pues si aún hay problemas en la predicción de estos algoritmos, estos problemas no deben calificarse como "racismo" o "desigualdad", simplemente deben añadir más datos y ajustar las tecnologías.
    Normalmente me gusta el contenido de este canal, excepto este video. Aunque la información que presentan no es erronea, es notable su sesgo que busca crear controversia y puede despertar odio en ciertos grupos. Parece que quieren hacer ver que hay racismo o desigualdad en estas tecnologías. Pues, puede que actualmente lo haya, como ustedes efectivamente demuestran, pero pienso que NO es intensionado.
    Unos puntos a considerar sobre las tecnologías:
    Si las tecnologías fueron desarrolladas, construidas y mayormente consumidas por el "hombre blanco", es obvio que la oferta de las tecnologías se ajuste a las necesidades de la demanda, esto no es racismo, es sólo resultado de la optimización de los productos/servicios hacia donde hay mayor demanda de los mismos. No se puede exigir a los productores/desarrolladores que fabriquen todo cubriendo todos los aspectos desde el día 0, harían a las tecnologías más costosas e inviables. En la medida en que haya una mayor demanda de estos productos/servicios por parte de otras razas, el mercado se encargará de adaptarlos, pues nadie quiere tener predicciones erroneas de sus algoritmos para después tomar desiciones erroneas.
    Sobre el uso de las tecnologías:
    Se sabe que las tecnologías pueden usarse para bien o para mal, depende de la democracia que no se violenten nuestras libertades.
    Por último, estas tecnologías buscan ayudar a tomar desiciones, pero son los humanos finalmente quienes toman las desiciones.

  • @fysi9397
    @fysi9397 Před 3 lety +127

    La inteligencia artificial solo es una extensión de lo que pensamos, no es intencional. Pero revela quienes somos realmente

    • @starvostokcres
      @starvostokcres Před 3 lety +3

      AL FIN ALGUIEN LO DIJO

    • @CrimsonKing666
      @CrimsonKing666 Před 3 lety +12

      Asi no funciona una red neuronal, es algo mas primitivo que lo que te imaginas, al ultimo son las mismas bases de calculo que te enseñaron en la escuela, no es tan moderno como crees y muchas cosas han sido usadas en ingenieria por decadas. La diferencia es que aun estamos en pañales, hay muchas cosas que son nuevas pero no se han utilizado comercialmente para emcontrarle fallas. Por eso debe de probarse muy bien por que a una red neuronal la entrenas con datos y si estos estan mal la red neuronal va tener muchas fallas, lo del color de piel es por falta de datos y por que ciertas arquitecturas de redes neuronales son muy malas para detectar formas, estas son mejores para texturas..

    • @gersonp4606
      @gersonp4606 Před 3 lety

      What y esa "extensión" como se programa ?

    • @elyyo2136
      @elyyo2136 Před 3 lety

      Juajuaju

    • @casicreativo1129
      @casicreativo1129 Před 3 lety

      @@gersonp4606 usando el cerebro y entender lo que se quizo decir

  • @gabrielchavezbustillos9196
    @gabrielchavezbustillos9196 Před 3 lety +66

    No me gusta la censura en los comentarios de DW.

    • @marytaflowers9902
      @marytaflowers9902 Před 3 lety +3

      ¿ Como te das cuenta que hay censura en los comentarios ❓ supuestamente DW está en contra . Bueno eso siempre creí.

    • @maoluz882
      @maoluz882 Před 3 lety +10

      Y no haz pensado que quizá quien borra los comentarios es youtube

    • @killermcbiagio
      @killermcbiagio Před 3 lety +12

      Son peores que los de RT

    • @andresrubio1394
      @andresrubio1394 Před 3 lety +8

      En algunos videos no dejan poner comentarios.

    • @jost1101
      @jost1101 Před 3 lety +10

      *Me censuran mi comentario racista/homofóbico*
      Los racistas/homofóbicos: “P1ncHES medios, d0nde está mi l1bertAd de Expresión??”

  • @karlozgr
    @karlozgr Před 3 lety +5

    ¿Ahora racista la IA? Rayos, si que se ofenden con todo. Solo cambien los criterios ajustados en la configuración de la IA. Y usen el sentido común, usualmente las armas son metálicas y de color oscuro, obvio la IA lo interpretó como un arma.

  • @carmafons.a.3403
    @carmafons.a.3403 Před 3 lety +8

    A ver cuando sacan los algoritmos para reconocimiento de gays, lesbianas y travestis. Esto se pone bueno.

    • @raulpenaloza4107
      @raulpenaloza4107 Před 3 lety

      Apuesto que diran que como no sabe indentificarlos, "fue construido por un hombre heterosexual"

  • @venosaa634
    @venosaa634 Před 3 lety +18

    Entonces todos tenemos que ser como robots? Todos las personas iguales de color altura cabello? No podemos pensar discernir tener diferencias? O como? Claro que debe de haber diferencia todos somos diferentes afortunadamente

    • @kkkaaa5967
      @kkkaaa5967 Před 3 lety +2

      quien dijo eso? supongo que le estabas respondiendo a alguien que borro su comentario sino no tiene el menor sentido porque nadie esta hablando de eso

    • @luisml7557
      @luisml7557 Před 3 lety +1

      Es increíble como malinterpretas todo el video

    • @martasosa5973
      @martasosa5973 Před 3 lety +2

      Yo lo que entiendo es que te refieres a que hablar de diferencias anatomicas y culturales, que definitivamente existen, ahora es considerado racismo, si es eso opino como tu, no se por que no se puede decir que alguien tiene rasgos orientales, otro europeo y alguien mas de nativo americano....ya nada es "politicamente correcto", tenemos que hacer de cuenta que no existen diferencias....que tonteria

  • @moridulceria9266
    @moridulceria9266 Před 3 lety +14

    La IA está creciendo no es racista solo le falta información o corregir la información lo cual llevará un tiempo en perfeccionarse. Yo he trabajado con ia y se demora tiempo en enseñarle cosas o corregir. La IA se va alimentando de información y entre más info más precisa se vuelve.

    • @martasosa5973
      @martasosa5973 Před 3 lety +4

      De hecho desde mi punto de vista, siendo racista la AI emula casi en un 100% a un humano real...Mis aplausos a los cientificos!

    • @moridulceria9266
      @moridulceria9266 Před 3 lety +1

      @@martasosa5973 ciertamente es natural discrimar quizás no correcto en los criterios ahí hay una distorsión.

    • @nvozang3193
      @nvozang3193 Před 10 měsíci

      Los racistas son los que escriben los algoritmos, los blancos. Su interpretación de todo es racista y este problema no acabará hasta que acabe su hegemonía, basada en el racismo.

  • @carlos_jrivero1991
    @carlos_jrivero1991 Před 3 lety +30

    "El hombre blanco" creo que el reportaje también es discriminatorio.

  • @solcaribe7843
    @solcaribe7843 Před 3 lety +118

    ¿Policía predictiva? 🤔 Me recuerda esa película protagonizada por Tom Cruise, "Minority Report". ¿Syfy??? 😱

  • @danycage6457
    @danycage6457 Před 3 lety +18

    hombre, el sistema de reconocimiento uyghur habra sido ideado con intenciones cuestionables, pero aun asi, que tengo una efectividad del 70%... es de tener cuidado, puesto que la implementacion de la IA esta en pañales aun...

    • @lucionicolascenturionmedin1796
      @lucionicolascenturionmedin1796 Před 3 lety

      No realmente... Teniendo expertos en anatomía humana de las diferentes etnias, es correcto pensar que tendría una efectivadad mínima del 50% y máxima de 75-90%.

  • @Hero19093
    @Hero19093 Před 3 lety +6

    Creo que el título de este video está errado y está tomando otro tono. La solución de esta situación es sencilla cuando estén haciendo los test deben incluir latinos, asiáticos, afroamericanos, caucásicos y personas procedentes de medio oriente.

    • @starvostokcres
      @starvostokcres Před 3 lety

      El problema es que no hay suficientes como para llenar esos datos, no todos los países son iguales en tipos de personas algunos tienen mas de uno que de otro

    • @Hero19093
      @Hero19093 Před 3 lety +1

      @@starvostokcres Exacto y por eso considero que el título está exagerado, para mi es periodismo sensacionalista que busca dividir más a la humanidad para sacar algún beneficio

  • @ericguzman5637
    @ericguzman5637 Před 3 lety +15

    Tremendamente interesante el reportaje 👌 damos por sentado que los sistemas funcionarán bien, pero depende mucho de cómo se diseñen

  • @L3rkRockstar
    @L3rkRockstar Před 3 lety +23

    casi cerca del Psycho pass

    • @Pemon
      @Pemon Před 3 lety +2

      con el microship entre el pasaporte

  • @jirt36
    @jirt36 Před 3 lety +8

    Nesgro es negreo y blanco es blanco para una computadora, a ella s no se les puede programar sentimientos

  • @rx8236
    @rx8236 Před 3 lety +4

    A mi me da miedo la vigilancia masiva a todos,imagínate acosadores encargados de vigilar a sus futuras víctimas!!!! Atroz!!!!; Ni siquiera se necesita una tiranía para que pase eso mucho 😭😭😭

  • @carlosbedoya8935
    @carlosbedoya8935 Před 3 lety +7

    El problema es que nos cuesta aceptar que la inteligencia artificial no es "polìticamente correcta", no es emocional sino sencillamente objetiva, hemos manipulado la información de manera a que nos haga sentir más cómodos, y ahora queremos manipular la inteligencia artificial .Yuval Harari nos advierte que en poco la inteligencia artificial comenzará a programarse a sí misma... y no esperemos que sea emocional, será simplemente objetiva. Y por lo tanto tremendamente injusta para los parámetros humanos.

    • @lucaswsvs117
      @lucaswsvs117 Před 3 lety +1

      al contrario, será justa, y ese es el problema que cada uno tendra lo que se merece

    • @franklin4dedos
      @franklin4dedos Před 3 lety +2

      Estás equivocado. La IA artificial procesa datos millones de veces más rápido que un humano y a pesar de eso puede estar en un error. Por ejemplo hay casos en dónde la IA no puede notar la diferencia entre unas dunas de desierto y un par de tetas. Y tener una inteligencia artificial que decida sobre temas de derechos o facilitarle la vida a una persona por ser blanca y que al negro lo aparte, eso es una mierda. Prácticamente te sentencia el día que naciste.

    • @lucaswsvs117
      @lucaswsvs117 Před 3 lety +2

      @@franklin4dedos la AI se programa en base a estadisticas no en base a sesgos subjetivos.

    • @victorhugoeh974
      @victorhugoeh974 Před 3 lety +2

      @@lucaswsvs117 Pero la estadística con la que se alimenta la IA sí puede estar sesgada. Si se le alimenta con datos falsos, muestreos mal hechos, etc., el resultado también será sesgado.

    • @nvozang3193
      @nvozang3193 Před 10 měsíci

      Objetivo no es injusto. La IA no es objetiva porque procede de unos humanos que en general son racistas.

  • @donatello4186
    @donatello4186 Před 3 lety +8

    Auxilio mi lavadora, refrigerador y estufa creo que es machista y mi tele y computadora son sexistas 😱
    Bueno fuera de broma todo puede tener una buena explicación el reconocimiento facial es una tecnología que se basa en proporción de nuestra genética sinceramente es solo que profundiza un poco en cuestión de los pocos rasgos distintivos que nuestro rostro pueda tener, en el caso de los chinos rayos DW de verdad creen que si un fugitivo que estuviera en occidente con los rasgos asiáticos (que bien sabe uno que se parecen tal clones) no sería boletinado así o el programa de seguridad tendría cierta preferencia por ese tipo de rostro por qué según es racista!!?? Vaya bobada con lo de la estudiante pues que puedo decir de su computadora, su sistema de reconocimiento facial de la universidad obviamente es deficiente no racista, no es que la máquina pudiera tener juicio alguno.
    El bot racista de Twitter (página preferida de ofendiditos por cierto) bueno su programa seguro se basaba en imitar a los comentarios más populares que encontrara en la red social, últimamente cualquier loca se dice feminista y comenta semejante estupidez que la gente la termina por apabullar con comentarios críticos o de desprecio por su movimiento como el ejemplo que pusieron!!
    Y por último si es cierto la gente es racista ( no toda obviamente) pero las máquinas por si solas no, son solo otra extensión de nosotros!!

  • @MrJuliocarrero
    @MrJuliocarrero Před 3 lety +6

    Los algoritmos son neutros, el bien o el mal lo decide el humano que maneja los programas computacionales. Tal vez hace tiempo que entramos en una dictadura tecnológica?

    • @JeamLeppard
      @JeamLeppard Před 3 lety +1

      Porque dictadura tecnologica?

    • @MrJuliocarrero
      @MrJuliocarrero Před 3 lety +1

      @@JeamLeppard The Coup We Are Not Talking About
      We can have democracy, or we can have a surveillance society, but we cannot have both.
      By Shoshana Zuboff
      Esta autora nos explica parte de la dictadura tecnológica; @manuelabat; El enemigo conoce el sistema por Marta Periano, también en TED@youtube

  • @bryamvargas1371
    @bryamvargas1371 Před 3 lety +68

    Básicamente si nuestra creación incluye nuestras convicciones, entonces va a se igual que nosotros los humanos

    • @cronosmartinez1072
      @cronosmartinez1072 Před 3 lety +12

      es un programa informatico de 1 y 0 por mas inteligencia artificial que le digan que es, NO TIENEN COCEPCION DE VIDA, mucho menos de racismo. a lo mucho son errores en el codigo
      pero no racismo por dios

    • @jpalma9361
      @jpalma9361 Před 3 lety +7

      La ia no da opiniones, se basa en estadistica, algoritmos

    • @bryamvargas1371
      @bryamvargas1371 Před 3 lety +6

      @@cronosmartinez1072 vos has estudiado programación o inteligencia artificial?

    • @abstracto2137
      @abstracto2137 Před 3 lety +1

      Es difícil limitar cualquier tipo de inteligencia, incluso podría ser imposible. tarde o temprano una iA convergerá o "colapsara" en desarrollar una discriminazion igual a la que tendría nuestra concepción de Dios, básicamente un ser ultra conciente que solo pone las manos para que no caigan las cosas de una mesa, con nula intervención. Pero claro antes de que eso ocurra puede "colapsar" en algo que tire cosas de la mesa.

    • @sabin97
      @sabin97 Před 3 lety +7

      @@bryamvargas1371
      yo si he estudiado ambas cosas.
      poseo un bachillerato en ingenieria de computadoras y una maestria en ciencias de computos.
      en el campo de la inteligencia artificial hay un dicho:
      "la inteligencia artificial es a la inteligencia, lo que las flores plasticas son a las flores"
      o sea solo apariencia y nada de sustancia.
      a lo que llamamos inteligencia artificial a fin de cuentas es solo estadisticas y heuristicos.
      solo en las peliculas se ve eso de que sean capaces de pensar.
      si no puedes pensar, no puedes ser racista.
      todas esas diferencias y el "discrimen" de la inteligencia artificial se debe a optica. si tu piel es mas oscura reflejara menos luz, y eso dificulta que una inteligencia artificial reconozca tu cara.
      no es racismo. es fisica. literalmente el comportamiento de la luz.
      has visto esas fotos donde sale alguien con piel bien bien oscura y es de noche y en la foto solo se le ven los dientes?
      eso tampoco es racismo, es fisica.

  • @lucaswsvs117
    @lucaswsvs117 Před 3 lety +4

    No entendí la queja. Se quejan de que la inteligencia artificial te identifica si sos negro, blanco, chino , joven o viejo, y si es su trabajo, esas son variables que sirven para resolver casos y todo eso. Si se busca un criminal determinado se programara para buscar ese rostro, pero acá te lo muestran como si se programa los algoritmos de forma subjetiva cosa que no existe en la informática porque todo se hace en base a estadisticas

    • @Tonatiub
      @Tonatiub Před 3 lety

      se quejan de la realidad

  • @lupitaperez6272
    @lupitaperez6272 Před 3 lety +5

    Recordé algo extraño. Cuando yo era niño no podía distinguir un negro de otro. Todos me parecían iguales y cuando era adolescente todos los asiáticos también. Pero ahora ya no me pasa eso

    • @lucaswsvs117
      @lucaswsvs117 Před 3 lety +1

      porque cuando eres niño eres tu inteligencia no esta desarrollada, no tienes capacidad de abstracción, además de que no eres consiente del crimen y todo eso. En EEUU pasa mucho, blancos y negros son amigos de pequeños pero al crecer el blanco se da cuenta que con el negro no tiene nada q ver y son muy diferentes y la relacion pierde todo interes

  • @wilderramonvelasquezherrer7153

    IA para identificación de la minoría musulmana Uigur para encarcelarlos y castigarlos en los campos de concentración chinos, la política de reeducación china

  • @ssss-ud6uv
    @ssss-ud6uv Před 3 lety +16

    hay varios tipos de algoritmos de inteligenca artificial, en este caso los programadores no tienen nada que ver ya que el programa escribe su propio algoritmo, lo que le ocurre en este aso es que simplemente a la inteligencia artificial le falta información y que aun no esta terminado.

    • @starvostokcres
      @starvostokcres Před 3 lety +1

      Y la información que recibe puede ser de estadisticas, por ejemplo si en USA 8 de cada 10 personas arestadas son afroamericanos, entonces obviamente arrestaría a todas las personas que son de ese color de piel, lo único que haría sería generalizar más lo que tenemos

    • @bkjgvjggh7654
      @bkjgvjggh7654 Před 3 lety +2

      Cierto, este canal esta empezando a parecer algo progresista, ojala no termine cono Discovery o History Chanel hablando de pura conspiración o peor aun, simpaticen con el socialismo.

    • @casimirodutty246
      @casimirodutty246 Před 3 lety +1

      @@bkjgvjggh7654 osea si dicen lo que no te gusta, son socialistas. Vaya razonamiento tenemos 🤦🤦🤦

  • @tammyharleyquinn8670
    @tammyharleyquinn8670 Před 3 lety +61

    Todo es racista hasta la luz por que es clara🤦🏻‍♀️

    • @JeamLeppard
      @JeamLeppard Před 3 lety +6

      Hay que empezar a comprar luces negras para poder ver en la oscuridad a los negros xD

    • @tammyharleyquinn8670
      @tammyharleyquinn8670 Před 3 lety

      @@JeamLeppard 😂

    • @JeamLeppard
      @JeamLeppard Před 3 lety +1

      @アーシュラ・カリスティス y yo azul. Te vas a ofender? Yo soy mas minoria que vos, solo existimos los Blue Man Group y yo

    • @unusuariocongoogles
      @unusuariocongoogles Před 3 lety +2

      @@JeamLeppard yo me autopercibo de color platino con incrustaciones de diamantes brillosos y eso es aun más racista para mi, jake mate

    • @JeamLeppard
      @JeamLeppard Před 3 lety +3

      @@unusuariocongoogles ahh sos de la alta sociedad vos, seguro vivis bien, yo tengo que buscar que ropa combina con mi azul cobalto :(

  • @JohnDoe-rk7ex
    @JohnDoe-rk7ex Před 3 lety +5

    Un 70% de precisión es un avance muy grande, en especial en una etnia muy semejante.

  • @camilosanchez1754
    @camilosanchez1754 Před 3 lety +13

    Lo de tecnología racista es victimismo total. Lo que más les interesa a los dueños de esas compañías es indexar a cada individuo para ofrecerlo como mercadería, independiente de la raza. Lo que sucede es que la tecnología todavía es imperfecta. Pero yo no se hasta que punto eso pueda ser algo bueno

    • @starvostokcres
      @starvostokcres Před 3 lety

      Sí, ya se esta volviendo muy hostigante, pero también habra gente que quiera usar ese poder o información y hara lo que sea para conseguirla, hay que estar atentos a ambos partes

  • @xcamaradefotos3062
    @xcamaradefotos3062 Před 2 lety +2

    La IA no discrimina porque no tiene consciencia ni razona, tampoco tiene mente ni siente sensaciones, ni emociones, ni sentimientos!!!

  • @armando2617
    @armando2617 Před 3 lety +2

    me parece que los algoritmos parten del comportamientos de los grupos raciales, los rasgos Fisicos, sus valores morales, su nivel intelectual, creo que los algoritmos no tratan de corregir ni educar a nadie sensillamente elabora una fotografia de sus habitos para definir un patron.

  • @applejack9482
    @applejack9482 Před 3 lety +10

    El lado positivo es que así no te pueden controlar pasando desapercibido por las calles llenas de cámaras.

  • @luxose
    @luxose Před 3 lety +4

    Con esta tecnología van camino a lo que muestra la película de Tom Cruise Sentencia previa (Minority report, 2002), un Estado policial que incluso pretende entrar en la mente de sus ciudadanos para predecir delitos y disidencia. El Estado dictatorial perfecto. Excelente reportaje.

  • @MrAnthonyx41
    @MrAnthonyx41 Před 3 lety +2

    Se lo toman exageradamente ofensivo , la verdad es que estos sistemas están para perfeccionarse , y con el tiempo se mejorará los algoritmos es más complicado un nuevo algoritmo que abarque más diversidad ,sobre todo en personas de color la luz se refleja menos así que en sistema no tan complejos y al utilizar un algoritmo más básico es posible que falle y ha pasado con cámaras de seguimiento de rostros , pero es un problema más técnico que social

  • @Osc785
    @Osc785 Před 3 lety +2

    Erradicar el racismo es tan imposible como querer erradicar el negocio del narcotráfico.

  • @eduardoreyesmejia2912
    @eduardoreyesmejia2912 Před 3 lety +3

    Hay y ahora la gente va a hablar del racismo digital, y vamos a decir la maquina me discrimino y los negros van a tener mas pretextos para hablar de racismo.

  • @juanmmm1652
    @juanmmm1652 Před 3 lety +16

    La culpa no es del software, esta echo por las personas intencionalmente

    • @joaquingrande371
      @joaquingrande371 Před 3 lety +3

      Si y no. Estos sistemas usan machine learning y con el tiempo la inteligencia artificial podrá ser entrenada a reconocer mejor a personas con diferentes tonos de piel. Sigue siendo interesante el tema

    • @FAR21.
      @FAR21. Před 3 lety

      Como dijo Joaquín, son parámetros que deben irse afinando, pero se puede lograe

  • @RolLeoRM
    @RolLeoRM Před 3 lety +5

    Ellos lo ven como una desventaja, pero para mi es una ventaja, pueden robar y el algoritmo no se detecta y no podran reconocer :v

    • @Ellen-sn9dh
      @Ellen-sn9dh Před 3 lety

      😂😂 Lo mismo pensé.

    • @artur26744
      @artur26744 Před 3 lety

      Si son invisibles para la rebelión de las máquinas y ellos pueden derotar las máquinas y las máquinas no vieron lo que los derotaron

  • @carlosot.7107
    @carlosot.7107 Před 3 lety +2

    Curiosamente los nuevos comerciales están haciendo un énfasis exagerado en personas de rasa negra. Para la muestra el nuevo comercial de “ google pixel”

  • @fabianalonsotorreschica4628

    Aquí desde Colombia, exelente programa

  • @eneene4930
    @eneene4930 Před 3 lety +8

    No hay discriminación. Solamente es el resultado de que la ciencia y la tecnología es mayoritariamente desarrollada por personas de raza blanca.

  • @Uruguayosoy
    @Uruguayosoy Před 3 lety +7

    Muchos pro y muchas contras el Big Data
    Se va agudizar las diferencias que hoy existen
    Va a ser difícil acceder a lugares de privilegios porque la inteligencia artificial relaciona color de piel, barrio donde vivís, descendencia y demás...

    • @JeamLeppard
      @JeamLeppard Před 3 lety +1

      Algo que estadisticamente es correcto, solo que los progres creen que las estadisticas no sirven

    • @piedramultiaristas8573
      @piedramultiaristas8573 Před 3 lety

      @@JeamLeppard No crees que hay que hacer algo para cambiar la estadística? Y ver que hacen los de arriba que roban mas estadísticamente también?

    • @JeamLeppard
      @JeamLeppard Před 3 lety

      @@piedramultiaristas8573 Sisi, estaria bueno que cambien las estadisticas nadie dijo que no, yo me baso en la precision de la IA, y no entiendo que tiene que ver "los de arriba" nose de que me hablas, de Jesus? no entiendo quien está por encima tuyo

    • @piedramultiaristas8573
      @piedramultiaristas8573 Před 3 lety

      @@JeamLeppard Con los de arriba me refiero a la clase alta mas bien a los corruptos sobre todo los políticos

    • @piedramultiaristas8573
      @piedramultiaristas8573 Před 3 lety

      @@JeamLeppard Creo que lo que debería hacerse es llevar estudio individual de cada persona y si en un cierto tiempo va cambiando de actitud se le califique mejor pero el problema es cuando cae en manos de psicopatas, psicopatas y narcisista un control así tan grande de echo según psicólogos estamos llenos de líderes así porque donde hay control a ellos les gusta estar, porque se puede manipular para hacer ver a alguien o a cierto grupo como malos por eso deberían existir varrios sistemas de evaluación par a minimizar que esto ocurra aunque podría pasar pero repito se podría minimizar

  • @anonimamente
    @anonimamente Před 3 lety +7

    Me pregunto quiénes son las personas que entrevistan como "expertos en el tema" o sólo son voces escogidas que hacen eco al mensaje manipulador que quieren transmitir usando una fachada de información "neutral"?

  • @JohnvKampen
    @JohnvKampen Před 3 lety +11

    Frenologia digital?!

    • @Gominola01
      @Gominola01 Před 3 lety

      Estamos retrocediendo en lugar de avanzar?

    • @a9l216
      @a9l216 Před 3 lety

      Cierto 🤣🤣🤣🤣🤣

  • @rojjerg7466
    @rojjerg7466 Před 3 lety +3

    Esto es lo que pasa cuando no se hace bien el proceso de Machine Learning

  • @sebastianleloir6956
    @sebastianleloir6956 Před 3 lety +2

    Usan "hombres blancos" Cuando les conviene. Existen también programadoras. Lo que hay que entender es que las cámaras de foto tienen un tipo de focus+filtros de luz automáticos. Si dos personas con piel oscura se sacan una foto, no va a haber problema, si dos blancas lo haces tampoco va a haber problema. El problema surge cuando se sacan la foto los dos. Es como que la máquina no sabe hacer una auto regulación de la luz y tiende a entender más a la cara más nítida con más luz (la blanca). Si hiciera lo contrario no se vería bien. Las cámaras están hechas en su mayoría por asiáticos de piel más clara. Eso de hombres blancos es una idiotez.

  • @ggarron
    @ggarron Před 3 lety +2

    Si la mayor parte de los asesinos seriales son hombres blancos. Y si hay un asesino serial en una ciudad. Deben los hombres blancos quejarse de ser los principales sospechosos?
    O los hombres de ser sospechosos de asaltos a mano armada y que no se sospeche de las mujeres?
    Las computadoras verás estadísticas, si la mayoría de quienes hacen algo son de algún grupo y vos sos de ese grupo serás sospechoso, pero se debe demostrar que eres culpable.

  • @laczcambas
    @laczcambas Před 3 lety +6

    Que bueno, breve, excelente e inquietante análisis

  • @twimc4746
    @twimc4746 Před 3 lety +3

    Pues no la usemos

  • @vicentemartinezcabrera8468

    Las flores son de diferentes colores y todas son bellas. Los seres humanos también somos como ellas. No venimos de un mundo lejano. Nuestra madre es la tierra y nos alimenta a todos no hace diferencia.

  • @kevinestui645
    @kevinestui645 Před 3 lety +2

    No es racista se basa en echos y estadisticas.

  • @mariafont8826
    @mariafont8826 Před 3 lety +7

    ¡Muchas gracias!
    El mundo marcha tan rápido, en todas las direcciones (excepto la humanista), que a la gente de a pie, como uno, le cuesta entenderlo. Necesitamos pensadores, necesitamos filósofos, para frenar este caballo loco y volver a disfrutar de "vivir". 🇺🇾

  • @joaquincarbajal6884
    @joaquincarbajal6884 Před 3 lety +4

    Eso de la prediccion del delito se parece mucho a Minority Report y al sistema de eliminación de amenazas de los helicarrier de Hidra en la película de Capitán América y Winter Soldier.

  • @davids.s.5578
    @davids.s.5578 Před 2 lety +1

    Creo que es difícil que una IA no termine con ciertos "sesgos" , ya que aunque sea poblada con información 100% objetiva, terminará llegando a ciertas conclusiones no muy correctas políticamente hablando.
    Por ejemplo podria concluir que países son más violentos que otros en base a tasa de homicidios, o que grupos humanos son más violentos y aunque asociara otros factores, se preguntaría porque las autoridades de ciertos países son más corruptos (siendo muchos de sectores no necesariamente pobres en sus sociedades), así de una forma u otra llegaría a la conclusión que hay países (y personas) de una u otra categoría.

  • @1ZUNEX
    @1ZUNEX Před 3 lety +2

    En si la inteligencia artifical no es racista todo depende de como haya sido programada sus datos o para que lo quieran usar y si el algoritmo no reconoce al principio el rostro negro cuando fue programado en si por blancos es por que necesita mas datos para poder identificar mejor el rostro y el de los policía es que en zonas especificas en Estados unidos hay más arrestos de negros ,asiáticos,latinos o blancos dependiendo de las zonas y despues usan los datos de los arrestados para mejorar los datos y por desgracias en general usan los datos de las zonas mas peligrosas y en esas zonas hay mas negros o latinos que otras cosas

  • @juanhorac4605
    @juanhorac4605 Před 3 lety +8

    Que fabriquen robots arco iris 🌈
    Y ya está
    👍 👍 👍 👍 👍 ❤

  • @stevengarcia7277
    @stevengarcia7277 Před 3 lety +4

    Según los principios de la IA eso no debería pasar, o al menos eso es lo que he leído en microsoft

    • @starvostokcres
      @starvostokcres Před 3 lety

      Es que se deja llevar por costumbres humanas estereotipadas, añadiendo de que los memes los puede reconocer como verdad absoluta 🤣

    • @o.ev.l6621
      @o.ev.l6621 Před 3 lety

      Y le crees a la empresa de microsofot¿cuantos años tienes?

  • @antoniocasalduerorecuero9383

    Ese sistema me pareció algo siniestro y abiertamente discriminador contra las minorías étnicas de una población o país.

  • @heclanet
    @heclanet Před 3 lety +1

    Se dice que vivimos en un mundo globalizado y "políticamente correcto"
    Pero por el motivo que sea refleja una cruda realidad, hay mucho discurso de igualdad pero no igualdad

    • @starvostokcres
      @starvostokcres Před 3 lety +2

      Ah veces lo "politicamente correcto" es solo una hipocrecía o una utopía, ahora le hemos dado a la inteligencia artifical la capacidad de estereotipar como nosotros 🤣

  • @palermo017
    @palermo017 Před 3 lety +6

    Lo extraño es porque los medios le dan cabida a que se traten temas estupidos, simplemente se debria ser indiferente con temas banales.

    • @ernestoj.aguilar7492
      @ernestoj.aguilar7492 Před 3 lety +1

      Pues creo que sutilmente quieren dar ideas, un tanto sesgadas a mi parecer, a las personas que no tienen expertiz en el tema, o simplemente personas sin criterio. Lo que me parece extraño en este canal.

  • @omargarcialechuga7205
    @omargarcialechuga7205 Před 3 lety +72

    En México: Persona blanca corre, tiene prisa.
    Persona morena corre, se acaba de robar algo.

    • @charlycharly933
      @charlycharly933 Před 3 lety +21

      Y termina siendo cierto :v

    • @omargarcialechuga7205
      @omargarcialechuga7205 Před 3 lety +4

      @@charlycharly933 de hecho pararon a un amigo por eso :(

    • @charlycharly933
      @charlycharly933 Před 3 lety +21

      Uy. Pobrecito. Lo mataron? Meh. No creo. A llorar a otro lado. Yo soy blanco y también me pararon por estar frente a un banco con capucha. Le di mis datos y listo, todos felices todos contentos. Dato: en mi barrio robaban más los N que los B. Tiene mucho sentido que la policía identifique a los N. Hay una estadística en su contra. Saludos

    • @omargarcialechuga7205
      @omargarcialechuga7205 Před 3 lety +4

      @@charlycharly933 yo soy caucasico y no vivo en una burbuja como tu.

    • @charlycharly933
      @charlycharly933 Před 3 lety +1

      @travis Rm si los policías son de color cartón caca y tienen tatuajes jajaja. En qué mundo viven ustedes?

  • @zapatlas
    @zapatlas Před 3 lety +1

    Reconocer a los chinos, la mayoría se ven iguales, es increible pensar que no són una cultura tan homogenea como pensamos.

  • @HerrNebel78
    @HerrNebel78 Před 3 lety +1

    Si a una I.A. se le cargara más de 5 mil años de datos documentados de los seres humanos en todo el mundo el resultado no tendría nada que ver con los estándares éticos de occidente en la actualidad. La justicia y la ética que se promueve en occidente es simplemente más de lo mismo, no se busca un mundo más justo, sino imponer un pensamiento y pisotear aquellas culturas diferentes.

  • @rocoronado8629
    @rocoronado8629 Před 3 lety +7

    Es algo creado por el humano, entonces va con todas las taras sea discriminación y otros; así de simple.
    Cada vez más cerca el nuevo orden advertido en tantas películas SF y por otro lado dejando entender que en países desarrollados principalmente exista mucha gente anti-tecnologia, etc. Y en los no desarrollados, compran con esfuerzos pero sin pensar las repercusiones.
    Me encanta DW, me hace recordar mi niñez viendo por TV enlatados de Transtel.

  • @zayxhex6006
    @zayxhex6006 Před 3 lety +3

    Nigga prefiero que no me reconozcan facialmente, eso es peor!!!

  • @silvamendezmendez7017
    @silvamendezmendez7017 Před 3 lety +1

    Gracias por la matéria. Excelente como siempre

  • @oscarchavarriabastos7314
    @oscarchavarriabastos7314 Před 3 lety +1

    Es ilógico, un algoritmo no tiene la capacidad de pensar para discriminar a alguien por su color de piel, lo que tiene es una base de datos deficiente, además que para identificar rostro lo que se hace es crear una red convucional que aplica filtros a las imágenes y reducir su tama hasta una malla de 8x8 que normalmente está en escala de grises por ello un color de piel oscuro es difícil de distinguir porque al reducir la imagen no se aprecia bien los detalles

  • @manueleinarrcamaperez3792

    Nada de racismo, solo es un problema técnico fácil de solucionar, se hacen bolas por nada.

    • @kkkaaa5967
      @kkkaaa5967 Před 3 lety

      entonces por que no se soluciona si es tan facil?

  • @Samthahoff
    @Samthahoff Před 3 lety +6

    Tay no se volvió sexista, racista y clasista 🤨 solo se volvió una twittera promedio 🤣

  •  Před 3 lety +2

    No desinformen sobre los uighures en China. Cuándo se consulta porqué pasa eso en China se entiende cuál es la tergiversación de los medios europeos

  • @paularodriguez481
    @paularodriguez481 Před 3 lety

    Está claro que la tecnología aprende del humano. Es importante que aprendamos a mejorar estas fallas. También es importante que antes de sumergernos en el mundo IA se cree un marco legal de uso. No queremos ni gobiernos ni empresaa controladores..que hagan mal uso. Es urgente el marco legal y ético. En búsquedas de empleos, inversores, créditos..etc..hace tiempo que hay discriminación algoritmica...

  • @maquinasinteligentesitm1679

    No es que sea rasista , es que las camas y algunos dispositivos de distancia usan reflecion de inflarojos y estos a veces no refleja bien en cuerpos negros y me ha pasado que algunas pieles negras no refleja en algunos infrarojo baratos. por ejemplo en dispenzadores de liquidos.

    • @samypm2024
      @samypm2024 Před 3 lety

      wow no sabia

    • @o.ev.l6621
      @o.ev.l6621 Před 3 lety

      Mentira.

    • @steelkraken
      @steelkraken Před 3 lety

      @@o.ev.l6621 ¿Eres experto en I.A.? Porque como estudiante de I.A. puedo dar fe de que es cierto. Pero además, sólo se necesita sentido común para darse cuenta de ello: las cámaras tienen muchas dificultades para filmar (o tomar fotos) en condiciones de poca luz. Eso hasta un niño lo ha comprobado usando tan solo su celular.
      ¿Quieres argumentar que hay cámaras que logran salvar este inconveniente? Pues también te tengo noticias: eso lo logran con VARIAS cámaras DE ÚLTIMA GENERACIÓN muy costosas. Nada que ver con las cámaras económicas de vigilancia.

  • @HistoriaenCeluloide
    @HistoriaenCeluloide Před 3 lety +7

    Un titular como este suena a chiste, pero si un portal como DW lo publica, significa que los niveles han caído muy bajo

    • @jonatanmercadocortegana5496
      @jonatanmercadocortegana5496 Před 3 lety

      El lenguaje es simbólico. El mensaje está entre líneas. Conservadores enojados por cosas imaginarias otra vez

    • @MessalaSeverus
      @MessalaSeverus Před 3 lety

      ​@@jonatanmercadocortegana5496típico, tomar a todos como conservadores

  • @mariadej.torresdelatorre1345

    Lo único que crea empatía en las personas es la educación, con solo ver el nivel educativo en las diferentes culturas del mundo sabremos porque el racismo está tan marcado, la inteligencia artificial es creada por las personas entonces no sorprende el software racista.

  • @PsicologoDavid2030
    @PsicologoDavid2030 Před rokem

    Me fascina como Lee y presenta Juan Sebastian Gómez. Lo admiro y es mi ídolo a seguir

  • @tonimacarroni5208
    @tonimacarroni5208 Před 3 lety +8

    Minuto 0:16 NO, no son racistas, faltan datasets de datos o los datos dicen lo que ha muchos les cuesta mirar, ahora prosigamos con el video a ver con que nos sorprenden ahora
    Edit 1: tayTweet solo tuits racistas porque aprendia de los usuarios y un grupo de usuario decidio sabotearla, no mintais.
    Edit 2: tal vez la cuestion seria por que hay mas no-blancos centrados en cardi B y demás tonterias y porque mas blancos creando tecnología. Si en los datasets de imagenes hay mas negros cogiendo un arma que un blanco, la IA dira que por probabilidad si hay una mano negra, eso tendrá que ser un arma. Sonara racista para los bobos, la realidad es que solo hay que ver videoclips de rap/trap y dichos fans en redes sociales junto con las estadisticas de asaltos armados y violentos, para darse cuenta del porque los datasets y la IA dicen lo que a muchos incomoda.

    • @tonimacarroni5208
      @tonimacarroni5208 Před 3 lety

      @@eugeR137 tu eres el tipico garrulo que iba diciendo black life matters mientras segun las estadísticas de la casa blanca, mueren mas blancos a manos de los policías, que negros, aun cuando estos causan mas delitos de asalto.
      Si si, soy muy racista, claro... (soy africano hahahaha).
      Atentamente un desarrollador de software ;)

  • @007joseelrey
    @007joseelrey Před 3 lety +5

    Saludos desde Lima Perú

    • @chuckschuldiner6287
      @chuckschuldiner6287 Před 3 lety +1

      Pais bananero

    • @Xoandrex95oX
      @Xoandrex95oX Před 3 lety +4

      haa... ya ve que has venido a probar nuestras bananas...

    • @jorgegonzalo1693
      @jorgegonzalo1693 Před 3 lety +3

      @@chuckschuldiner6287 lo dice un mexicano jaja

    • @julioj6412
      @julioj6412 Před 3 lety

      @@Xoandrex95oX No tardan en llegar los xenófobos...

    • @gavilan17409
      @gavilan17409 Před 3 lety

      CHUCK SCHULDINER. Mindundi, ceporro, estulto, etc.

  • @Omarqp
    @Omarqp Před 3 lety +1

    Deberían forzar a las personas oscuras que estudien las ciencias que crean ese tipo de tecnología Y dejen de lloriquear por los inventos de las personas que estudiaron esas ciencias.

  • @alejandrodavidbolanos82

    La primer serie que muestra este tema es PERSON OF INTEREST.
    JJ Abrahams

  • @Pettite18
    @Pettite18 Před 3 lety +26

    No es discriminatorio, es sólo actualizar las informaciones. De todo quieren hacer un tema racista donde no lo hay

    • @Javi.o.0
      @Javi.o.0 Před 3 lety +3

      Totalmente, las máquinas solo recopilan datos y en con base en eso toman decisiones...

  • @don_Danny
    @don_Danny Před 3 lety +19

    Hay un poco de vídeo en su victimismo.

    • @yerdans
      @yerdans Před 3 lety +3

      no es victimismo, son hechos

    • @andersonrojas2002
      @andersonrojas2002 Před 3 lety

      @@yerdans dilo sin llorar

    • @yerdans
      @yerdans Před 3 lety

      @@andersonrojas2002 ???

    • @j.c.espindola5747
      @j.c.espindola5747 Před 3 lety +1

      @@andersonrojas2002 y tu afronta la verdad de la historia con valor

    • @andersonrojas2002
      @andersonrojas2002 Před 3 lety

      @@j.c.espindola5747 y admite que la inteligencia artificial se equivoca con cualquiera sin importar su color de piel o raza

  • @davidGomez-cr7jc
    @davidGomez-cr7jc Před 3 lety +1

    Que es mas fácil?
    Decir que las ia son racistas y hacer propaganda y documentales de esto o sencillamente cambiarlas y ya. Ahora que atrae a mas publico y que llama mas la ATENCIÓN de esas dos situaciones?

  • @HLABCR
    @HLABCR Před 3 lety +1

    Policy no es policía sino política

  • @GustaVeg
    @GustaVeg Před 3 lety +14

    Pues mi cámara de vigilancia detecta a mi perrita como humana.🤪

    • @00hn34
      @00hn34 Před 3 lety

      XD

    • @bkjgvjggh7654
      @bkjgvjggh7654 Před 3 lety +5

      No imagínate, la asociación canina para la equidad en el desarrollo de software e IA debe estar planificando una protesta masiva.
      En todo este documental no veo que se haya tratado de explicar el proceso de desarrollo de una IA a profundidad y explicar como con el tiempo su desarrollo mejorara.

  • @Dievanable
    @Dievanable Před 3 lety +7

    8:10 les suena el sistema sibil? De un anime que no recuerdo su nombre Jajajaja

  • @Neomex33
    @Neomex33 Před 3 lety +1

    Racista o no, pero en China no se ve una sola patrulla y puedes andar caminando de noche, comparado con CDMX a pesar del c4 hay muchos delitos, en mi ciudad a 30 minutos de Villahermosa, estrenaron el famoso c4 al otro día mataron a una mujer en la deportiva, se llevaron su auto y resulta que las cámaras no captaron nada o aun no servían, pero ya las habían presumido las autoridades.

  • @lucape5968
    @lucape5968 Před 3 lety

    Excelente, los algoritmos y su complejidad deben ser revisadas meticulosamente, por el bien de la ética como moral de la sociedad...

  • @stevencollins7186
    @stevencollins7186 Před 3 lety +43

    Como cuando ni la propia tecnología te quiere.😂😂😂

    • @ele.1807
      @ele.1807 Před 3 lety +2

      El comentario más estúpido.

    • @xcesar2000
      @xcesar2000 Před 3 lety

      @@ele.1807 cierto

    • @stevencollins7186
      @stevencollins7186 Před 3 lety +4

      @@ele.1807 escucha sub-desarrollado me avisas cuando aprendas discernir lo que es comentario "SARCÁSTICO ".

    • @ele.1807
      @ele.1807 Před 3 lety +1

      @@stevencollins7186 Métete tu sarcasmo indolente por el kul0

    • @stevencollins7186
      @stevencollins7186 Před 3 lety +2

      @@ele.1807 No llores 😭😭

  • @Henyckma
    @Henyckma Před 3 lety +5

    Muy buen video! Gracias a las investigaciones de Pablo López y Juan Sebastián Gómez suelo ver estos videos tan interesantes y compartirlos con mis amigos, estan muy bien creados y la analitica es impresionante, tocan los temas de mayor interés e impacto ayudando a comprender mucho mejor

  • @sayavedra_sh4075
    @sayavedra_sh4075 Před 3 lety +1

    Esto ya se está pasando de estúpido de verdad que esto ya es extremadamente estúpido, enserio no puedo creer que algo tan ridículo esté pasando... El mundo de verdad se esta llendo a la mierda.

  • @jairoluis8811
    @jairoluis8811 Před 3 lety +2

    Ahora la intrligencia artificial es rasista? Un mundo desocupado y sin proposito en la vida.

    • @kkkaaa5967
      @kkkaaa5967 Před 3 lety +1

      mirate el video primero genio

    • @jairoluis8811
      @jairoluis8811 Před 3 lety

      @@kkkaaa5967 no sabia que tenia que pedirte permiso para opinar, aca kaka es mierda, por eso haces honor a tu nombre.