NUD3S V4ZADOS COM SEU ROSTO: DEEPFAKE • Física e Afins
Vložit
- čas přidán 1. 06. 2024
- USE O CUPOM "FÍSICAEAFINS12" para 12% OFF em www.insiderstore.com.br/Fisic...
Faça o Física e Afins existir no PIX: contato.fisicaeafins@gmail.com
MEUS EBOOKS:
respireciencia.com.br/ebooks
Ajude o Física e Afins e se torne MEMBRO: / física e afins
Quer me enviar algum presentinho?
CX POSTAL: 2002
CEP: 96015-145 Pelotas/RS
Quer uma parceria conosco? contato.fisicaeafins@gmail.com
Quer me seguir em tempo real?
Instagram: / bibibailas
Nossos vídeos são editados pelo Uriel Rocco:
/ urielrocco
USE O CUPOM "FÍSICAEAFINS12" para 12% OFF em www.insiderstore.com.br/FisicaeAfins
É notório que isso começará a acontecer com bastante frequência e eu não quero nem imaginar como o cenário político vai usar isso para narrativas
Isso já acontece muito com influencer gringa. E já tem até site adulto só focado em deepfake de famoso.
Eu vi que tá rolando eleições na índia e isso tá sendo um mega problema por lá, até "ressuscitaram" uma pessoa pra fazer campanha política
@@momarek Imagina isso no Brasil? Muitos não sabem nem notar erros em CORRENTES do WhatsApp; imagine diferenciar IA de vida real?
@@allonsy72vamos todos virar ator de filme adulto... É o futuro
Mas vcs não acham que logo vão ser criados meios de avaliar a veracidade das imagens de forma acessível a todos
*Vou mais uma vez chamar atenção para o fato de isso não só causar vítimas de mentiras como tbm beneficiará criminosos que dirão que é armação digital, causanso dúvidas diante de seus crimes. (Exemplo: os mesmos políticos que espalharão mentiras, serão os mesmos que dirão a população que, dadas informações verídicas sobre eles mesmos, são apenas mentiras geradas por programas.*
Uma colega minha já teve problema por terem criado um OF de deepfakes dela
Já passou da hora de controlar essas IA
Quero leis que limitem quem utiliza essas IAs
Processar uma empresa ou alguém deveria ser uma segurança jurídica nossa, mas, na prática, é algo tão absurdamente caro em alguns casos, que a maioria das pessoas nem considera a possibilidade.
Poxa Bibi... Queria que você falasse mais sobre isso e soluções para nos tranquilizar 😢 Esse assunto tem me preocupado muito. Vivo temendo pela minha imagem e pela imagem de pessoas que eu amo. Tenho duas irmãzinhas crianças, se o rosto delas acabar sendo utilizado em algum intuito maléfico desses... Eu não sei do que eu seria capaz.
Eu saí de todas as minhas redes sociais. Menos o CZcams. Minha psicóloga diz não ser saudável me isolar assim. Mas o ambiente virtual é nojento. Cada dia mais convencida a me manter afastada.
@@rebeca825 se isso não for saudável então no passado todas as pessoas eram doentes porque não existia essa nojeira de rede social ? Essa psicóloga precisa ser estudada.
Mas para fazer o deep fake precisa do seu rosto de varios angulos. Rede social com uma foto ou outro não é suficiente para a AI pegar bem seu rosto com fidelidade, dando para perceber que não é vc. Diferente de pessoas que estão mais expostas em videos na qual aparece varios angulos.
Vc precisa de terapia
@@rebeca825 Olha, uma coisa é se isolar nas redes sociais e outra coisa é se isolar na vida real. Se você continua se relacionando com as pessoas na vida real e só decidiu se afastar das redes sociais, eu não vejo nada de errado nisso, pelo contrário! Concordo super com você.
O mundo ainda tem muito a piorar. Lamentável
A três anos, exclui minhas redes sociais, tive uma filha depois disso e depois de tanta gente vir pedir para meu marido e eu reativar nosso insta, postar foto da minha filha e tal, que podemos deixar o perfil fechado etc, eu só sei que sinto cada vez mais que fiz a coisa certa, é um alívio gigantesco não ter a imagem minha e da minha família rolando por ai, estamos focados em crescer, não em aparecer, estou concluído a graduação em física médica na federal, mirando na residência !!!
Te adoro bibi, arrasa no novo doutorado!
É a melhor coisa que vc faz pra tua filhinha!!!. Não tenho filhos, mas tenho 5 sobrinhos (3 meninas e 2 meninos) e eu tambem tenho essa preocupação. Infelizmente, a Internet se tornou uma terra sem lei. Sinceramente, espero que no futuro o Deepfake seja eliminado da sociedade. Eu até vejo vantagens em IA, especialmente pra idosos e deficientes pode ser uma ferramenta bastante interessante de Tecnologia Assistiva.
Agora Deepfake é uma ferramenta tão perigosa quanto uma bomba atomica. Isso nao deveria estar nas mãos de qualquer pessoa. Ao manipular fotos vc estaria de certa forma "manipulando os fatos" (apesar da foto ser falsa, a questão é que até vc conseguir provar que "nariz de porco não é tomada" a notícia vai longe!!!). Não estamos falando apenas de imagens e vídeos e sim da reputação de uma pessoa, de uma familia. Imagina só estao utilizando isso pra manipular fotos de familiares para dar a ideia de 1nc3st0 ou @bus0. Isso é pertubador!!!
Ja passei por um deepfake beeeeem pesado ano passado!!! E assim, teve até gente (homem claro) que veio tirar satisfação do porque eu não tinha tatuagem nos meus videos....
As vezes tatuagem ajuda!
Eu acho que a IA se tornar racista ou preconceituosa depende muito mais do training set do que do viés do programador.
Esses algoritmos são treinados para reproduzir muito muito bem o training set, logo, se foram treinados a partir de postagens de comunidades tóxicas, como o X (ex Twitter), por exemplo, irão apenas reproduzir aquilo
Sobre a primeira linha. Mas quem escolhe o training é o programador, se ela/ele não está incluindo pele de pessoas negras é porque não está pensando na população inteira e como criar algo que seja efetivo para todos. Logo viés racista. Um exemplo. Essa falha de training set vem sim do programador.
@@isabelevitorio3046 Ah sim sim claro, estava pensando no fato de que algumas pessoas erroneamente pensam que esses vieses são inseridos pelo programador em nível de programação mesmo, quando na verdade entram pela escolha de como o programador decide treinar o algoritmo, como você justamente falou
@@isabelevitorio3046 Como a base de dados é enorme não dá tempo de ficar analisando parágrafo por parágrafo qual exemplo é preconceituoso e qual não é. Geralmente a empresa só pega milhões de posts aleatórios de redes sociais e joga tudo indiscriminadamente pra rede neural. O resultado pode ser desastroso dependendo de onde ela pegou esses dados, o que aconteceu com a IA que o google treinou recentemente com o reddit.
@@isabelevitorio3046 Geralmente a empresa só pega milhões de posts das redes sociais e joga tudo pra rede neural. Não dá tempo de separar parágrafo por parágrafo qual exemplo é preconceituoso e qual não é.
Se os chatbots não possuírem limites éticos, isso realmente pode acontecer. Por exemplo, eu instalei o Llama 3 do Meta Uncensored no meu PC, e dependendo de como eu interajo com ele, ele pode me insultar de maneiras terríveis, haha.
Eitah, assunto polêmico... No aguardo...
Amé tu español Bibi ❤😍 saludos 😊
Assisti ao documentário, aprendi a fazer deepfake e às vezes aço brincadeiras com minha família, hoje em dia qualquer um consegue fácil.
Descobri uma conta do Instagram que uma pessoa tinha rosto falso e ela excluiu a conta, deve ter sido por vergonha.
Siiim! Muito facil de criar essas coisas
Que bom que tá de volta!!!❤
Um excelente documentário sobre o assunto da IA é "coded bias". É focado na pesquisa de Joy Buolamwini.
Sai de todas a redes, TODAS!
Se você for fazer um vídeo sobre IA diversas eu sugiro que você chame a Silvana Bahia que está a frente do Pretlab. Ela é maravilhosa!!
Estamos lascados 😮
Pode vazar o que for kkkk se nao fui eu eu to com a mente tranqüila
Compreensível se sentir assim. Agora imagine um cenário onde essa tecnologia é utilizada para espalhar a desordem na sociedade? As consequências são inimagináveis, para ser honesto.
@@user-of2qj8kq6ke ainda virar prova num crime. 😮
Tem casos que por causa dessas deeps fakes a pessoa perde emprego, é ameaçado de morte por acharem que ela fez algo que não fez, não é tão simples assim.
O ruim é que até explicar que "nariz de porco não é tomada" a notícia vai longe!!!!!
Teve casos de vítimas que tiveram que mudar de cidade por conta de fake news.
Sem contar que essas pessoas manipulam fotos envolvendo menores de idade, fazem montagens de fotos de familiares para dar a ideia de que estão cometendo 1nc3st0 e por aí vai...
Bem preocupante.
Inteligência artificial precisa de regulamentação pra ontem.
Bibi, aproveita e fala pra insider dar uma atenção para o pessoal plus size.
A inteligência artificial seria ótima se não existisse esse tipo de gente que tema mãe la naquele lugar, sem querer ofender as profissionais! muito antes de existir redes sociais aconteceu um caso com uma colega de trabalho do meu irmão, ligaram para a mãe dela dizendo que ela estava fazendo ponto em uma rua!
CAMINHO SEM FIM...
Gente! 😮😮😮
Tenho uma opinião simples quanto a isso:
DEEPFAKE NEM DEVERIA EXISTIR!!!!
Não vejo vantagem nenhuma nisso e por outro lado existem vários malefícios.
Não tenho filhos, mas tenho 5 sobrinhos (3 meninas e 2 meninos) e eu tambem tenho essa preocupação. Infelizmente, a Internet se tornou uma terra sem lei. Sinceramente, espero que no futuro o Deepfake seja eliminado da sociedade. Eu até vejo vantagens em IA, especialmente pra idosos e deficientes pode ser uma ferramenta bastante interessante de Tecnologia Assistiva.
Agora Deepfake é uma ferramenta tão perigosa quanto uma bomba atomica. Isso nao deveria estar nas mãos de qualquer pessoa. Ao manipular fotos vc estaria de certa forma "manipulando os fatos" (apesar da foto ser falsa, a questão é que até vc conseguir provar que "nariz de porco não é tomada" a notícia vai longe!!!).
Não estamos falando apenas de imagens e vídeos e sim da reputação de uma pessoa, de uma familia. Só de imaginar que estao utilizando isso pra manipular fotos de familiares para dar a ideia de 1nc3st0 ou @bus0. Isso é pertubador!!!
🎉
😒
Imbagens! Imbagens!
👏🏽👏🏽👏🏽👏🏽 Ótimo tema! Bibi, isso em 08:39: se acontecer isso o Hiro vem com uma Katana, zap! zup! 😉 (brincadeira).
👽🧀☕👍🏾👍🏾
Particularmente não estou nem aí.
Por que você fez carinha de traseiro quando viu os dois boys se beijando?
Quanta desinformação sobre redes neurais/machine learning. Boa parte do processo é automático, não existe um programador que fica do lado da IA ensinando ela a ser racista.