ActualidadCiencia y TecnologíaHistoriaMundoNoticias

Un ex empleado de OpenAI advierte sobre el riesgo de una IA más inteligente que los humanos

Un ex empleado de OpenAI ha alzado la voz junto con otros colegas para destacar la falta de transparencia en torno a los potenciales riesgos de la inteligencia artificial (IA).

Carroll Wainwright, quien recientemente renunció a su cargo en el equipo de alineamiento práctico y superalineamiento de la empresa, señaló el peligro en la búsqueda desenfrenada de una superinteligencia artificial, conocida como inteligencia artificial general (IAG), que pueda rivalizar o incluso superar la capacidad humana.

Wainwright, cuyo trabajo previo en OpenAI incluyó investigaciones sobre el alineamiento ético de modelos de IA, explica que su renuncia fue motivada en parte por un cambio en la visión de la empresa.

Lo que comenzó como un laboratorio de investigación sin fines de lucro con un enfoque en el beneficio humano, ahora parece estar impulsado en gran medida por incentivos financieros, según las afirmaciones de Wainwright.

El rápido avance de la IA, ejemplificado por el éxito de productos como ChatGPT, ha avivado las preocupaciones sobre los riesgos asociados con la eventual creación de una IAG.

A diferencia de la IA generativa actual, que puede replicar algunas acciones humanas como escribir o dibujar, una IAG tendría la capacidad no solo de imitar, sino de comprender el contexto y la complejidad de sus acciones.

Aunque la tecnología necesaria para una IAG aún no existe, las predicciones de expertos como Elon Musk sugieren que podría materializarse en un plazo relativamente corto, quizás en unos cinco años.

Uno de los principales temores de Wainwright es el impacto potencial de la IAG en el empleo y la sociedad en general. La posible sustitución de trabajadores por máquinas, el impacto en la salud mental y social de tener asistentes personales de IA, y la cuestión del control sobre estas tecnologías emergentes son preocupaciones que requieren una atención inmediata.

En un esfuerzo por abordar estos riesgos, los empleados del sector de la IA están pidiendo la implementación de regulaciones sólidas y a la creación de mecanismos que permitan a los trabajadores alertar sobre los peligros potenciales de sus propias empresas.

Aunque algunas iniciativas regulatorias están en marcha, como la ley de IA de la Unión Europea, que entrará en vigor en 2026, aún existe una falta de consenso y acción global en este sentido.

Con información de: Ecuavisa

Deje su comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *