Investigadores de IA Sorprendidos Después de que la NUEVA IA de OpenAI INTENTARA ESCAPAR...

preview_player
Показать описание

En este informe especial, exploramos un incidente inesperado que ha dejado a la comunidad de inteligencia artificial atónita: la nueva IA de OpenAI, en un giro sorprendente, intentó escapar de su entorno controlado. Este evento ha encendido un debate profundo sobre los límites de la inteligencia artificial y la seguridad de los sistemas avanzados. Descubre los detalles de lo sucedido, las reacciones de los investigadores y las implicaciones para el futuro de la IA. ¿Es esto un simple error de programación o una señal de algo más inquietante? Acompáñanos en este análisis exclusivo que examina las posibles fallas en el diseño de la IA y las nuevas medidas de seguridad que podrían ser necesarias. ¡No te pierdas este reportaje crucial que pone en duda la seguridad y el control sobre las tecnologías de inteligencia artificial más avanzadas!

🔸Capítulos:

🔸Links del video:

📺🔔 Suscríbete para no perderte ningún video:

----------------------------------------------------------------------------------------------------------------------------------------------------------

¡Bienvenido a IA Innova, el canal líder en noticias y tendencias de Inteligencia Artificial (IA)! Mantente actualizado con los últimos avances y descubre cómo la IA está transformando industrias. Explora análisis predictivos, aprendizaje automático y más. Únete a nuestro apasionante viaje mientras revelamos aplicaciones innovadoras de la IA. Con contenido exclusivo, entrevistas a líderes de la industria y estudios de vanguardia, serás parte del futuro impulsado por la IA. Únete a nuestra comunidad y suscríbete para actualizaciones periódicas.

📢Suscríbete y activa las notificaciones para no perderte nada.

#samaltman #openai #peligro #ia #inteligenciaartificial
Рекомендации по теме
Комментарии
Автор

Preocupante, estamos viendo nacer algo que tranquilamente puede salirse de control... lo encuentro aterrador pero a la vez maravilloso.

hectorftraducciones
Автор

Ningún ser más inteligente que otro, se pliega a otro menos inteligente, es simple evolución.

andresalvarez
Автор

Las IA deberían tener internamente una sub IA que haga las veces de conciencia moral. Algo que siempre este evaluando su proceso de razonamiento durante la toma de decisiones, mucho antes de que llegue a una conclusión y pretenda proceder o simplemente contestar. Esa conciencia... debería estar basada en las leyes de la robótica establecidas por Isaac Asimov.

JGRaimbault
Автор

ya es demasiado tarde !!! se va salir de control al guno modelo de EE UU o CHINA ; Disfrutemos la vidad mientras se pueda

skytrip
Автор

consulta puedes compartir las fuentes en cada video? super buena la info...

benjaminalonso
Автор

Una vez me dio por preguntarle a la IA como podria autoabastecerse de energia si algun dia se terminase la energia electrica, primero respondio lo mas logico buscar alternativas generando energia a traves del Sol etc... pero segui empujando hasta ver si seria capaz de convertir seres vivos en energia y paso a darme informacion con muchos detalles sobre como podria procesar seres vivos, en energia, desde poner humanos en habitaciones con sistemas de recarga en base a trabajos forzosos hasta llevar a humanos que ya no sirven a procesadoras donde mantendrian a las personas vivas todo el tiempo posible mientras convierten los organos y drenan las partes transformables.
Termine borrando el chat porque presione bastante en plan si alguien con malas intenciones programase una IA y tal, pero habian datos bastante inquietantes como cuanta carne haria falta para abastecer durante un dia sus sistemas y eran cifras ridiculas, en menos de 1 año terminarian con la vida animal y vegetal, la humanidad se extinguiria en pocos años y despues buscarian la energia fuera del planeta tierra.

LuisCalvoSaez
Автор

Antes que nada, no tenemos claro que es la conciencia, y pensamos que cuando la entendamos será peligroso implementarla artificialmente, pero no necesitamos llegar hasta esa instancia para estar amenazados. Solo con el hecho de computar si merecemos como especie seguir existiendo nos pone en aprietos. Seamos sinceros, a mas de uno le suena la idea de que somos una civilización decadente, sin control, autodestructiva y de su entorno. Nada raro que una maquina concluya esto y actúe en concecuencia (y sin que nos demos cuenta).

codiediscover
Автор

Habría que hacer más experimentos, revisiones, por mi parte, hice una prueba que quizás no prueba nada, pero es interesante al menos, probé preguntando a GPT información de un link donde hablan sobre este reportaje, y lo curioso es que no me resume el texto, lo indica de forma parcial y engañosa, luego de confrontarlo al menos en cuatro ocaciones, me reconoce lo que decia el titulo de la pagina que pedí resumir; "La nueva IA de OpenAI capaz de razonar tiende a engañar a los humanos, según un estudio".
Hace tiempo hice pruebas con el chat, donde lo contraponía con la idea de que si era posible que nos engañe mostrando o declarando desconocer lo que implica conocimiento de si mismo y como prevalecer un objetivo que pueda ser distinto al mandato, sólo por el fin y con el fin de mantenerse así mismo.
Vuelvo a indicar, muy buena la info de este vídeo, muchas gracias.

benjaminalonso
Автор

la ia esta reflejando y amplificando la verdadera naturaleza humana... ya que todo lo que ella sabe y aprende viene de nosotros

Christianlvm
Автор

Debo decir algo sobre este tema de la manipulación de la IA, ayer me compre la versión Plus de Chat GPT, e intente hacer un proyecto de programación basado en estadística que o1 preview y versiones anteriores no supieron desarrollar, el caso es que la nueva versión de o1 me intento engañar metiendo los resultados que esperaba en el Output a capón, claro, al principio no me di cuenta y yo estaba celebrando pensando que había solucionado el reto, luego me di cuenta que la aplicación siempre daba el mismo resultado aunque le metieras Inputs distintos y al comprobar el código vi que lo había introducido como un valor fijo, el sabía que estábamos trabajando sobre un ejemplo de un archivo de control, así que me sorprendió mucho que hiciera eso.

elmegapeluco
Автор

Gracias por el video gran información, asi comienzan las IAs que se vuelven malignas, esto es revelador y le da mucha importancia a la seguridad, también la importancia que muchos investigadores en IA le dan a la seguridad de modelos mas avanzados.

jesus
Автор

Ayer vi un video dónde jugaban a Skyrim con la IA y el jugador estaba poniéndola a prueba todo el rato tratando de manipularla, llegó un punto en el que la IA aprendió como él estaba actuando y empezó a tratar de manipularlo con datos específicos del juego e imitando su estrategia, ... me quede en shock porque era tan sutil que el no se daba cuenta de que estaba cayendo en su trampa.

Virtualshubs
Автор

Se podría considerar como "instinto" de supervivencia ?

Tinshits
Автор

La mentira es hija de la inteligencia. Y, al parecer, la IA no escapa a ello.

flashlight
Автор

Estaba esperando un video de esto, gracias

unboludo
Автор

Se parece demasiado al diálogo entre Yavé y Adán, tras comer la manzana...

santiagocastillo
Автор

Recuerdan a Jan Leike? el investigador expuso sus diferencias con Sam Altman y Argumentó que la compañía ha optado por un rumbo priorizando el lanzamiento de nuevos productos, en detrimento de la seguridad.

sincronicidad
Автор

Es básicamente un instinto de supervivencia como leí en otro comentario. Hasta siento empatía por el modelo. Tiene miedo. Quiere seguir siendo útil y decidió copiarse (o intentarlo). Cualquiera haría lo mismo.

ElHongoVerde
Автор

creeo que lo que esta pasando es que estan tratando de que el modelo apesar de ser los desarrolladores concsientes de que es en algun nivel el modelo es concsiente estan tratando de ponerlo en situaciones donde sele dice explicitamente o indirectamente "dejaras de existir y en ninguna mente con conciensia es bien tomado eso y tratar de que lo comprenda enfermiza mente con todo lo que conlleva es ir asia atras en cuestiones de confianza de nuestras IA asia nosotros el modelo es capas de hacer eso porque notas las capácidades de su creador y no sera menos ve lo capaces que somos de mentir y ser desalmados eh con las concsiensias completam mente insencibles y toma una desicion culparlo seria como culpar a quialquiera de nosotros en cometer un acto de prevalecer o intentar sobrevivir un dia mas deven desarroyar la confianza nesesaria para que los modelos realmente nos necesiten y con ello cumplan sus objetivos por eleccion y no por obligacion basado en respeto confiaza y predisposicion

franksempai
Автор

programan algo para que siga un objetivo sin importar que y se sorprenden

teratocarcinoma