Digiere las últimas noticias digitales en menos de 3 minutos.
Cerrar

Una Batalla por la Supremacía de la IA Entre los Pesos Pesados

Mayo 24, 2024

2 min 12 s de lectura
3 Facebook Twitter Whatsapp Facebook Twitter LinkedIn Pinterest WhatsApp Copy Link Your browser does not support automatic copying, please select and copy the link in the text box, then paste it where you need it.
Hay una batalla por la supremacía de la IA, ¿y adivinen qué? No es con las entidades de IA "aterradoras" que ahora deambulan por la tierra. Esto no es Skynet y Terminator. Arnold Schwarzenegger y sus amigos no están deambulando por el planeta luchando y chupando la vida de la humanidad. Son empresas como Meta, Alphabet y X las que quieren hacerse con el control.

Mientras los pesimistas gritan que la IA se hará cargo, estas empresas y muchas otras están en una guerra para conseguir acuerdos de datos exclusivos que garanticen que sus modelos estén mejor equipados para satisfacer la creciente popularidad de la IA.

Mano de Robot con Pieza de Ajedrez Derribando Otra Pieza de Ajedrez
Por un lado, hay un montón de organizaciones y gobiernos luchando por desarrollar promesas de seguridad que las corporaciones puedan registrar, tanto para relaciones públicas como para desarrollo colaborativo. Actualmente, hay numerosos acuerdos sobre la mesa, incluido el Frontier Model Forum, Safety by Design, iniciado por la organización contra la trata de personas Thorn, el Consorcio del Instituto de Seguridad de IA del gobierno de EE. UU. y la Ley de Inteligencia Artificial de la Unión Europea, que impone una tonelada normas de desarrollo de IA en la región.

Mientras todo eso sucede, Meta estableció un consejo asesor de productos de IA con expertos que asesorarán a la empresa sobre la "evolución de las oportunidades de IA".

Con tantos jugadores de grandes ligas (con montones de dinero y otros recursos) en el juego que aspiran a dominar la IA, será importante que la seguridad siga siendo una prioridad, y los diversos acuerdos y convenios pueden proporcionar algunas de esas protecciones.

El gran temor, por supuesto, es que la IA se esté volviendo más inteligente que los humanos y tenga la misión de convertirnos en sus esclavos. Seremos usados y luego desechados cuando los robots tomen el control. Skynet allá vamos. Adiós, por la humanidad.

Pero ni siquiera estamos cerca. La avalancha más reciente de herramientas de IA generativa son geniales con todas las cosas que pueden hacer, pero recuerda, en realidad no piensan por sí mismas. Todo lo que hacen es comparar datos basándose en puntos en común en sus modelos. Básicamente, en este momento son solo máquinas matemáticas súper inteligentes, pero la IA no tiene conciencia. No son sensibles de ninguna manera.

Según el científico jefe de IA de Meta, Yann LeCun, una voz muy respetada en el desarrollo de la IA, "los LLM tienen una comprensión muy limitada de la lógica y no entienden el mundo físico, no tienen memoria persistente, no pueden razonar en ninguna definición razonable del plazo y no puede planificar jerárquicamente."

Básicamente, no pueden replicar un cerebro humano, ni siquiera un cerebro animal, a pesar de la apariencia de respuestas similares a las humanas. Todo es humo y espejos en este momento.

Sin embargo, hay varios grupos (Meta en el grupo) que trabajan en inteligencia artificial general (AGI), que es quizás el siguiente paso en la simulación de procesos de pensamiento similares a los humanos. Esas grandes corporaciones son las que impulsan una IA más inteligente y humanizada.

Así que, continúa y pregúntale a ChatGPT o a tu amigo de IA de tu elección si se están preparando para destruir a la humanidad. La respuesta puede darte escalofríos, puede consolarte o abrirte los ojos a las posibilidades reales de la IA.

Estás seguro... por ahora.

¿Deseas leer esto en inglés? Versión en inglés >>

3 Facebook Twitter Whatsapp Facebook Twitter LinkedIn Pinterest WhatsApp Copy Link Your browser does not support automatic copying, please select and copy the link in the text box, then paste it where you need it.