Aunque parece que este concepto es futurista y aún no ha impactado en tecnologías de consumo, ya existen en el mundo algunas aplicaciones de su uso. Uno de los más conocidos es IBM Watson, tecnología conocida por su capacidad para procesar y analizar grandes cantidades de datos, y que se ha utilizado en el sector de la salud para proporcionar opciones de diagnóstico y tratamiento, mostrando capacidades avanzadas de IA.
Otro ejemplo es Sophia, desarrollada por Hanson Robotics, una humanoide que puede participar en conversaciones, reconocer rostros y simular una gama de expresiones y comportamientos humanos, acercándose a la AGI.
“Si bien en esta etapa es puramente teórico, algún día la AGI podrá replicar capacidades cognitivas similares a las humanas, incluyendo el razonamiento, la resolución de problemas, la percepción, el aprendizaje y la comprensión del lenguaje. Cuando las capacidades de la IA sean indistinguibles de las de un ser humano, habrá superado lo que se conoce como prueba de Turing, propuesta por primera vez por el informático del siglo XX Alan Turing”, señaló Aamer Baig, socio senior en la oficina de Mckinsey de Chicago.
Esta corriente es distinta a la IA generativa, pues esta última se refiere a sistemas de IA que pueden crear contenido nuevo, como texto, imágenes, música y más, basándose en los datos con los que han sido entrenados. Esto incluye tecnologías como GPT-4, que puede generar texto similar al humano, o DALL-E, que crea imágenes a partir de descripciones textuales. Aunque la IA generativa es poderosa en su dominio, carece de la generalidad y la inteligencia adaptativa de la AGI. Por ello es que algunos tecnólogos la consideran hasta cierto punto peligrosa.
Riesgos de la AGI
Pérdida de Control: A medida que los sistemas de AGI se vuelven más autónomos, garantizar que actúen de manera beneficiosa para la humanidad es una preocupación importante. Alinear sus objetivos con los valores humanos es un área principal de investigación y es algo que incluso Elon Musk ha señalado como un riesgo potencial .
Sesgos: Los sistemas de AGI entrenados con datos sesgados pueden perpetuar y amplificarlos, llevando a resultados injustos o discriminatorios, especialmente para grupos minoritarios.
Preocupaciones sobre la privacidad: Los sistemas de AGI requieren grandes cantidades de datos para aprender, lo que plantea serios problemas sobre la propiedad de los datos y la privacidad.
Impacto en el empleo: El auge de la AGI podría llevar a un desplazamiento significativo de empleos, necesitando discusiones sobre cómo manejar esta transición y asegurar beneficios sociales.
Dentro de las compañías que están desarrollando este tipo de herramienta está el departamento de Google DeepMine, una de las verticales pioneras en este enfoque y que empieza a cobrar fuerza su potencial, con aplicaciones como Gemini. Otros caminos ya trazados están bajo el mando de OpenAI e IBM; sin embargo, aún es distinguible la IA de lo que un humano es capaz de hacer.