O Verdadeiro Problema de Inteligências Artificiais

preview_player
Показать описание
O Problema do Alinhamento é bastante famoso no mundo das inteligências artificiais. A ideia básica é que você pode pedir algo completamente inofensivo para uma IA e ela vai encontrar uma solução que coloca vidas em risco. Como podemos contornar esse problema e garantir o futuro da humanidade, ainda mais em uma época que não paramos de usar o ChatGPT?

Minhas redes sociais:

Рекомендации по теме
Комментарии
Автор

"É difícil imaginar uma maneira mais perigosa de tomar decisões do que deixá-las nas mãos de pessoas que não pagam o preço por estarem erradas". Thomas Sowell

santuby
Автор

Pedro, como pediu eu gostaria de comentar sobre esse assunto, até porque sou da área de TI, também sou licenciado em física e sou professor de TI. Estou agora fazendo uma formação em ciência de dados e assim, tenho visto muitos vídeos falando sobre IA e o medo de seus resultados.
Eu comentei esses dias num canal de um neurocientista, justamente sobre esse medo da IA, onde aqui também cabe a mesma opinião. O problema da IA não é a tecnologia em si, mas nós somos o problema. Como falou: como colocar questões morais e ética num algoritmo de IA, se nossa ética ou moral não são as mesmas para toda a humanidade? Veja então que chegamos num dilema aqui: Ficamos com medo e não avançamos e proibimos o desenvolvimento de pesquisa em IA, ou avançamos e pagamos pra ver?
Vejamos os fatos e o que nossa história humana nos mostra... Hoje em dia ninguém condena, ou ao menos faz algum protesto em público para que as armas nucleares sejam desmontadas e destruídas, e quando tivemos coragem de usar em Hiroshima e Nagasaki, houveram protestos e até hoje existem, porém foram utilizadas mesmos assim. Além disso os testes nucleares que ainda estão sendo feitos, em menor escala, ninguém fala sobre isso.... Mas porquê? Pra mim a resposta é bem simples e a causa disso é a ganância pelo poder ou a sua perpetuação. Ninguém ou mesmo um grupo e até mesmo um país inteiro, poderia impedir da China ou mesmo os EUA de pararem de usar ou mesmo manter seus arsenais nucleares, imagina então a Rússia. Veja que estamos no atual momento em que uma guerra nuclear é bem possível sim. O conflito na Ucrânia se não for bem tratado pelos demais países do mundo, poderá ser definitivo pra todos.
E isso não se discute, nós simplesmente deixamos para os países da OTAN e a China, tentarem resolver e ajudar numa solução.
Então a IA de fato não é nosso maior problema, mas estamos todos discutindo sobre seus perigos. Como físico posso dizer com toda segurança que a ciência nos mostra, que a radiação, seja qual for sua origem, eletromagnética ou corpuscular, pode nos exterminar, tanto de forma definitiva, quanto lentamente com mutações em nosso DNA. NUNCA devemos esquecer sobre esse fato.
Eu acredito que uma solução para o uso da IA Geral, seria a que ela nunca pudesse tomar decisões definitivas, mas sim conselhos. A minha visão de uma IA Geral é a de um bom conselheiro, talvez como muitos chamam hoje em dia de GURU.
A tomada de decisão precisa ser humana e, caso não seja possível, por exemplo no caso do carro da UBER, o que a IA deveria ter feito, no mínimo, reduzir a velocidade numa situação incomum, ligar os alertas e parar o carro. Mas porque isso não foi feito? Logicamente por que foi mal programada, usou uma massa de dados inconsistente e com muitas falhas e isso foi causado talvez até por pressão pra lançar o produto no mercado. Você não falou, por exemplo, nos carros da Tesla que estão causando acidentes nos EUA . Procura pra ver que são muitos e ainda estão ocorrendo, mas o Elon disse que sua IA tem avançado muito...
O Elon Musk por exemplo, é totalmente a favor de uma regulação ampla de uma IA geral, porém é muito estranho isso, porque as industrias dele estão usando IA massivamente, caso da Tesla quanto da SpaceX. Sem falar nas questões éticas e morais que estão envolvidas no seu projeto mais bizarro que é a implantação de nanotubos de carbono no cérebro para estabelecer uma comunicação Wifi com computadores, sob alegação de acessar dados mais rápidos, já prevendo um domínio de uma IA Geral. Isso é muito bizarro e não vejo discussões sobre isso.
Resumindo deixo alguns pontos pra pensar:
Não poderemos parar o desenvolvimento da IA, até porque há investimentos de Bilhões de Dólares em novos hardwares para processamento de redes neurais, garantindo maior performance, caso dos novos Chips da NVídia e sua máquina poderosa como o H100, que vi agora pouco custa 40.000 dólares uma única unidade.
Não se pode garantir que a China, Coreia do Norte, Rússia, Iran ou mesmo os EUA e seus aliados, deixem de usar a IA em seus arsenais de armas de guerra. Caso que cito que os EUA já possuem Drones de guerra totalmente autônomos e o que falta pra eles é deixar a IA decidir se ataca ou não grupos de rebeldes (coitados) no Afeganistão, alegando que são terroristas ou coisa parecida.
Você realmente acha que a pretensão de parar o desenvolvimento da IA, vai acontecer mesmo?
Nunca mais isso vai parar e só vai se desenvolver cada vez mais, então nos resta é debater e talvez sensibilizar os pesquisadores para que não deixem a IA tomar decisões, ou num caso extremo, se neutralize em situações de risco a QUALQUER TIPO DE VIDA, não somente nós humanos.
O debate sobre o avança da IA passa por debate ético e moral da humanidade como um todo, não só de um país. Mas veja nosso dilema enquanto civilização: Qual país ou grupo de países pode reivindicar uma discussão ética, se até mesmo sua ética é questionável? Como pode os EUA falar em ética se literalmente extermina pessoas em conflitos militares? E porque ninguém põe o dedo nessa ferida.
A China por exemplo não está nem aí sobre o que os EUA pensam ou fazem, eles simplesmente avançam e não param.
Nós enquanto humanos deveríamos parar de pensar somente em nosso pequeno mundo ocidental e olhar mais para as pessoas que vivem na Africa, no Afeganistão, na Coreia do Norte, e nos demais países pobres de nossa terra, pois não temos moral e muito pouca ética pra discutirmos algo maior sobre a IA. Nosso pensamento não é unânime e nunca será. Então se não houver um movimento geral na humanidade, não só no ocidente, mas em todo mundo, no sentido de buscar um entendimento sobre nossas vidas, respeito mútuo, não agressão, preservação da vida a todo custo, qualidade mínima de vida, respeito e cuidado com a natureza e os animais, nunca vamos evoluir como civilização e estaremos fadados a uma extinção futura, ou muito próximo disso.
Vamos continuar pensando nisso, talvez a discussão sobre a IA seja um Catalisador para aprimorarmos nossas discussões sobre ética e moral e quem sabe, possamos sair do debate e iniciar ações mundiais para promovermos a vida e não a morte.
Obrigado!

homines_mentes
Автор

Esse canal é a prova de que a ciência tem muito a oferecer para a humanidade!
Uma pena que a divulgação de conteúdo verdadeiramente científico é bem limitada em nosso país!!
Esse canal é sem dúvida muito bom!

marcosporto
Автор

Esse cara não existe! O modo como vc repassa as informações é impressionante. Parabéns, que o canal cresça mais e mais. 👏🏽

valmnssl
Автор

Um canal que dá orgulho na internet aos brasileiros!

marcosleodoro
Автор

Parece aquele problema de fazer um pedido para o gênio da lampada que atende o desejo errado mas a pessoa tem que lidar com este erro tentando desfazer o primeiro pedido.

jeffersonmarquessantana
Автор

Isso me parece muito com aquela máxima : Cuidado com oque vc deseja, pode se tornar realidade . (não necessariamente como vc tinha imaginado)

domfernandus
Автор

De longe, o melhor canal do YOUTUBE!! Eu estava prestando tanto a atenção que percebi que a frase dita à partir do minuto 01:43, foi repetida logo em seguida, de uma forma diferente. Provavelmente era pra ter sido um corte. Enfim, Obrigado por esse Canal!!

gabrielmelo
Автор

Olha, só tendo mesmo o dom da didática para produzir um vídeo como esse, leve, interessante, que te prende do inicio ao fim, sem ser massante. Camarada, vc tá de parabéns. Merecia muito mas MUITO MAIS inscritos e visualizações. Seus vídeos são uma luz na imensidão de trevas que existe na internet. Vou compartilhar com Deus e o mundo. Obrigado!

MarceloSantosSCS
Автор

A gente morre de medo de que as IAs se tornem para nós o que somos para os outros animais

petraariely
Автор

Cara, que didática fantastica. Isso é um dom com certeza. Seus vídeos sempre superaram as expectativas, e é f...! dizer que vc consegue passar o recado em 30 segundos ou 15 minutos com a mesma desenvoltura. Parabéns mesmo e obrigado pela transferencia eficaz de conhecimento. O problema do alinhamento não tem solução, e portanto, solucionado está. Por via das dúvidas, recomendo duas materias em todos os cursos de engenharia eletronica e de software. A primeira delas é mostrar para o aluno o que é empatia humana, é complemento com aulas em campo, como por exemplo visitar desalentados, orfãos da guerra, idosos em hospitais, animais antes da injeção final etc, . a outra matéria tão importante quanto a primeira porém totalmente interdependente é como criar um botão de desliga, isso mesmo, como criar independente do quão complexo é o oraculo eletronico quantico ou não, o bendito botão de desliga que poderias até chamar de "god button".

luizmelo
Автор

Parabéns pelo vídeo. Estas colocações deveriam ser mais divulgadas em todas as áreas, inclusive na área da Educação e formação das novas gerações. Tenho o livro do consagrado professor e filósofo sueco Nick Bostrom, "Superinteligência, Caminhos, Perigos e Estratégias para um Novo Mundo", editora DarkSide, RJ. Um verdadeiro tratado sobre o complexo, amplo e profundo assunto da IA. 503 páginas, incluindo extenso glossário final.
Os perigos sobre os que Bostrom alerta são até muito maiores que os colocados neste vídeo, e levam, pelas tendências atuais, a uma potencial extinção da Humanidade. Uma série de cientificamente fundamentadas sugestões (incluindo estatísticas, gráficos, fórmulas matemáticas, etc.) são dadas por Bostrom para diminuir o perigo, mas, como ele explica, não existe solução definitiva para o problema. Ou seja, dentro de 60 a 100 anos (ou antes ?), pode surgir no mundo uma Superinteligência (controlando todos os recursos da civilização, inclusive fábricas de armamentos, laboratórios, hospitais, agricultura, comunicações, cidades, estradas, etc.) que reflita e decida o extermínio da espécie humana. A superioridade dessa Superinteligência sobre nós, seria como mínimo, comparável à da diferença mental atual entre nós humanos e as baratas.

augustoduenas
Автор

Recomendo a todos lerem o livro "Algoritmos de Destruição em Massa" da autora Cathy O'Neil. É fantástico e tem os exemplos que o Pedro passou e mais alguns de fazer a cabeça explodir!
Excelente vídeo, Pedro!!!

tatyplummer
Автор

O filme O Exterminador do Futuro é o exemplo clássico desse perigo. Um sistema criado para defender humanos que acaba interpretando que o maior perigo para a humanidade são os próprios seres humanos, algo diversas vezes mencionada nos filmes da franquia. Isso é assustador.

silvanocapeloto
Автор

O problema é que nós sempre vamos em busca de algo a mais, se nós contentassemos com algo simples e que funciona para aquele determinado serviço, não teria esse perigo. O problema é quando queremos que algo funcione para tudo e melhore cada vez mais e que faça isso sozinho, nesse momento que passamos a correr riscos, mas a culpa é nossa por sempre querer algo melhor. A ambição da humanidade é um risco grave pra ela mesmo.

rtsistemas
Автор

Conheci o canal tem pouco tempo e ja sou fanzaço... Conteudo excelente, narracao perfeita, canal sensacional. Parabens.

JunioryExXe
Автор

Muito interessante a análise. O único problema que eu vejo é que os interesses financeiros, ou até mesmo de ego, não vão parar ou frear o desenvolvimento de novos sistemas, máquinas, ferramentas envolvendo IA. Como o próprio Pedro diz no vídeo: os valores são diferentes de pessoa pra pessoas e em diferentes culturas.
Resumindo: em breve teremos que lidar com todos esses problemas, porque a humanidade não vai parar pra refletir. A ganância e o ego são maiores que essas discussões...

maurithio
Автор

Com esse caso do submarino desaparecido, seria massa se você fizesse um vídeo explicando sobre o porquê ser tão difícil de chegar nas profundezas do oceano. Vejo muita gente que não entende como a pressão da água funciona.

rizato
Автор

"Você quer saber como ciborgues superinteligentes poderiam tratar humanos nomais de carne e osso? É melhor começar a investigar como os humanos tratam seus primos animais menos inteligentes." - Yuval Noah Harari (Homo Deus)

carol_olvrz
Автор

O ato de diferenciar certo e errado em muitas situações vem do emocional, no caso de uma IA que responde racionalmente a qualquer problema é uma questão impossível de ser solucionada. A não ser que se descubra um meio de desenvolver sentimentos em uma máquina.

alissonamorim