Buscar
Cerrar este cuadro de búsqueda.

SUPER Inteligencia Artificial (IA) más allá de la AGI

 

Los futuros sistemas de Inteligencia Artificial serán mucho más capaces incluso que AGI.

 

Ahora es un buen momento para comenzar a pensar en la gobernanza de la superinteligencia.

 

¿Qué es la AGI?

 

La AGI, o Inteligencia Artificial General, se refiere a la capacidad de una máquina para entender, aprender y aplicar el conocimiento de manera similar a como lo hacen los seres humanos.

 

A diferencia de la Inteligencia Artificial Específica (IAE), que se enfoca en tareas específicas y limitadas, la AGI tiene como objetivo desarrollar sistemas de Inteligencia Artificial que sean capaces de realizar cualquier tarea intelectual que un ser humano pueda hacer.

 

La AGI tiene el potencial de transformar significativamente el panorama en el ámbito de la Inteligencia Artificial de varias maneras:

 

1. Capacidad para aprender y adaptarse

 

La AGI tendría la capacidad de aprender de manera autónoma y adaptarse a diferentes situaciones y tareas.

 

Esto permitiría a los sistemas de AGI mejorar su rendimiento y eficiencia con el tiempo, sin necesidad de una programación o entrenamiento específico para cada tarea.

 

2. Solución de problemas complejos

 

La AGI podría abordar problemas complejos que actualmente requieren la intervención humana.

 

Podría analizar grandes cantidades de datos, identificar patrones y relaciones, y generar soluciones innovadoras en campos como la medicina, la investigación científica, la ingeniería, entre otros.

 

3. Automatización avanzada

 

La AGI podría automatizar una amplia gama de trabajos y tareas, incluyendo aquellas que actualmente requieren habilidades cognitivas y creativas.

 

Esto podría tener un impacto significativo en la economía y en el panorama laboral, liberando a los seres humanos de trabajos rutinarios y permitiéndoles centrarse en tareas de mayor valor añadido.

 

4. Avances en la investigación científica

 

La AGI podría acelerar el progreso en la investigación científica al ayudar a analizar grandes volúmenes de datos, descubrir patrones ocultos, simular procesos complejos y generar nuevas hipótesis.

 

Esto podría conducir a avances científicos más rápidos en campos como la biología, la física, la química, entre otros.

 

5. Mejoras en la toma de decisiones

 

La AGI podría ayudar a tomar decisiones más informadas y basadas en datos en diferentes ámbitos, como el financiero, el empresarial, el político y el social.

 

Al procesar grandes cantidades de información y considerar múltiples factores, la AGI podría ofrecer recomendaciones y estrategias más precisas y eficientes.

 

Sin embargo, es importante destacar que la AGI también plantea desafíos y preocupaciones, como el impacto en el empleo, la ética y la seguridad.

 

El desarrollo de la AGI requiere considerar cuidadosamente estos aspectos y garantizar su implementación responsable y beneficiosa para la sociedad en general.

 

Dada la imagen tal como la vemos ahora, es concebible que dentro de los próximos diez años, los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad.

 

En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado.

 

Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos.

 

La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo.

 

También debemos mitigar los riesgos de la tecnología de Inteligencia Artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales.

 

Hay muchas ideas que importan para tener una buena oportunidad de navegar con éxito este desarrollo; aquí se expone un pensamiento inicial sobre algunos de ellos.

 

Se necesita cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad.

 

Hay muchas maneras en que esto podría implementarse.

 

Los principales gobiernos de todo el mundo podrían establecer un proyecto del que formen parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente, con el poder de respaldo de una nueva organización como, que la tasa de crecimiento de la capacidad de IA en la frontera es limitado a una cierta tasa por año.

 

Las empresas individuales deben estar sujetas a un estándar extremadamente alto de actuación responsable.

 

Es probable que eventualmente necesitemos algo como un Organismo Internacional de Energía Atómica (OIEA), una organización internacional encargada de promover el uso pacífico y seguro de la energía nuclear, para los esfuerzos de superinteligencia.

 

Al día de hoy, con los esfuerzos de superinteligencia y la necesidad de una autoridad internacional, no existe una entidad específica.

 

La idea sobre la necesidad de una autoridad internacional para supervisar y regular los esfuerzos en superinteligencia es un tema de debate y reflexión en el campo de la Inteligencia Artificial (IA).

 

Dado el potencial impacto y los riesgos asociados con el desarrollo de sistemas de superinteligencia, algunas voces han propuesto la creación de organismos o marcos reguladores internacionales para garantizar la seguridad y el cumplimiento de estándares éticos.

 

La idea detrás de esta propuesta es que, a medida que la IA avanza hacia la superinteligencia, es importante tener salvaguardias y mecanismos de control en su lugar.

 

Esto podría incluir inspecciones de sistemas, auditorías de seguridad, pruebas de cumplimiento y restricciones en los niveles de implementación y seguridad para evitar consecuencias no deseadas o potencialmente peligrosas.

 

Sin embargo, cabe destacar que la implementación de una autoridad internacional para supervisar y regular los esfuerzos de superinteligencia plantea desafíos significativos, tanto técnicos como políticos.

 

Además, existen debates en curso sobre cómo deberían ser estos marcos regulatorios, quién debería tener autoridad y qué estándares de seguridad y ética deberían establecerse.

 

El tema de la regulación y supervisión de la superinteligencia es complejo y está en constante evolución.

 

Diversos organismos y grupos de expertos están trabajando en estos temas, pero no hay un consenso establecido sobre la mejor forma de abordarlos.

 

Cualquier esfuerzo por encima de un cierto umbral de capacidad, o recursos como computación, deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc.

 

 

El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse.

 

Como primer paso, las empresas podrían acordar voluntariamente comenzar a implementar elementos de lo que tal agencia podría requerir algún día, y los países individuales podrían implementarlo.

 

Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una IA.

 

Se necesita la capacidad técnica para hacer que una superinteligencia sea segura.

 

Esta es una pregunta de investigación abierta en la que se están poniendo los esfuerzos.

 

Es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación incluidos mecanismos onerosos como licencias o auditorías.

 

Los sistemas de hoy crearán un enorme valor en el mundo y, si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados.

 

Los sistemas que preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y se debe tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de este nivel.

 

Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública.

 

El mundo enfrenta muchos problemas que necesita mucha más ayuda para resolver, esta tecnología puede mejorar nuestras sociedades y la capacidad creativa de todos para usar estas nuevas herramientas.

 

 

Referencias;

openai.com/blog/governance-of-superintelligence

chat.openai.com

 

GNoME: Tecnología Inteligencia Artificial (IA) de Google Mind

  GNoME Graph Networks for Materials Exploration la herramienta de inteligencia artificial GNoME es una tecnología desarrollada por Google DeepMind que ha predicho 2.2 millones de nuevos materiales, incluyendo 380,000 materiales estables. Estos materiales tienen el potencial de impulsar tecnologías futuras,

Leer más »
error: Alert: Este contenido está Protegido © !!