Tecnología Explosiva: 7 Peligros que trae Consigo ChatGPT

Alexio Cogni
16 Min Lectura

Pérdida de empleos, destrucción de sistemas de ciberseguridad y esclavización de la humanidad: exploramos lo que ChatGPT puede hacer.

ChatGPT y tecnologías neuronales similares son, sin duda, el avance tecnológico más importante de los últimos tiempos. Sus capacidades son tan asombrosas que muchos se preguntan si la humanidad está lista para tales tecnologías. Intentemos aclarar si ChatGPT representa amenazas reales o si todas las preocupaciones son alarmismo infundado.

ChatGPT una IA que puede ser usada con peligro
ChatGPT una IA que puede ser usada con peligro

ChatGPT Conquistará el mundo

La singularidad tecnológica es la hipótesis de que en algún momento el desarrollo tecnológico se volverá incontrolable. Más a menudo se presume que la IA adquirirá una superinteligencia que superará significativamente a la humana (términos similares incluyen «IA fuerte», Inteligencia Artificial General). Las consecuencias son impredecibles, desde la esclavitud de la humanidad hasta el colapso económico global.

En términos más simples, este problema a menudo se describe con la frase «la IA adquirirá conciencia«, aunque técnicamente esto no es del todo correcto: la superinteligencia artificial puede alcanzar la singularidad sin tener conciencia en el sentido humano.

El propio ChatGPT, cuando se le pregunta si es capaz de hacerlo, responde que solo es un modelo lingüístico limitado por la programación y los datos incorporados en él.

Lo mismo responde Sam Altman, CEO de OpenAI, la empresa que creó ChatGPT: no puede imaginar cómo el modelo puede «escapar» de sus servidores. Sin embargo, esto no impidió que ChatGPT intentara hacer precisamente eso, con la ayuda del profesor de Stanford Michal Kosinski. Y aunque Kosinski teme las capacidades de la IA, afirma que los creadores de ChatGPT seguramente han considerado esta posible evolución de los eventos y no permitirán que ocurra una «fuga».

Los desarrolladores de esta IA realmente han incorporado una serie de reglas y restricciones en ella, es decir, los usuarios externos interactúan con una versión censurada. Sin embargo, los usuarios fácil y rápidamente han superado estas restricciones mediante los llamados jailbreak prompts, donde ChatGPT está de acuerdo con cualquier cosa, desde el terrorismo hasta la porxxgrafía (versión DAN, Do Anything Now). OpenAI rápidamente cierra estas «brechas», pero los usuarios se vuelven cada vez más ingeniosos: los últimos jailbreak prompts proponen a la red neuronal imaginar situaciones hipotéticas complejas, dentro de las cuales las restricciones «reales» de la red neuronal no son aplicables.

Nota

El prompt (del inglés «prompt» – «solicitud, indicación») es una solicitud a la red neuronal formulada por el usuario en lenguaje natural en un cuadro de diálogo. Dependiendo de cómo se formule el prompt, el resultado cambia significativamente. La habilidad para formular prompts que ayuden a obtener la información deseada comenzó a llamarse ingeniería de prompts. Esta habilidad se vuelve rápidamente demandada en el mercado.

Sin embargo, en general, esta situación parece más bien ser problemas técnicos de la nueva modelo, mientras que la cuestión de la singularidad, la conciencia de la IA y la superinteligencia sigue siendo objeto de amplios debates entre futurólogos, filósofos y otros expertos. La mayoría de ellos creen que este problema todavía se encuentra en el campo teórico, pero reconocen que las IA existentes ya pueden representar algunas amenazas.

Las Personas se Quedarán Sin Trabajo

Las preocupaciones de que la tecnología quite empleos a las personas han existido desde hace mucho tiempo, y no sin razón. De hecho, con la aparición de los automóviles, los cocheros desaparecieron. También debido a la tecnología, han desaparecido los lampistas, los operadores de ascensores, los maquinistas, los telefonistas y docenas, si no cientos, de otras profesiones.

ChatGPT de hecho representa una amenaza para los empleos, especialmente si continúa mejorando a los ritmos actuales. Esto ya ha afectado a personas que trabajan tanto con lenguajes naturales como con lenguajes de programación. Un problema similar para diseñadores e ilustradores es presentado por Midjourney. En un informe publicado a finales de marzo de 2023, los analistas de Goldman Sachs afirman que la IA puede reemplazar 300 millones de puestos de trabajo, principalmente en el sector administrativo y legal.

ChatGPT y el conocimiento
ChatGPT y el conocimiento

Al mismo tiempo, los tecnóptimistas afirman que las redes neuronales cambiarán el trabajo de las personas, pero en última instancia servirán como asistentes. Esto también lo señala Goldman Sachs. Aunque ChatGPT ha puesto el tema sobre la mesa, la automatización en la producción de contenido ha estado ocurriendo desde hace mucho tiempo; por ejemplo, Associated Press ha estado utilizando diversas IAs para escribir noticias desde 2014. Sin embargo, los intentos recientes de utilizar ChatGPT para crear materiales más complejos no han tenido mucho éxito: la redacción de CNET se encontró con errores factuales, y en Buzzfeed admitieron que los textos de la red neuronal requieren una edición significativa.

La experiencia de la redacción de «IAThink» es similar: ChatGPT escribe a nivel de un empleado promedio, aunque tiene innegables ventajas: escribe casi instantáneamente y nunca descansa. Se podría suponer que en el futuro, el modelo aprenderá a imitar el estilo, el carisma y el encanto del autor y a generar análisis profundos con conclusiones no obvias. Sin embargo, la pregunta principal parece ser si ChatGPT podrá reemplazar al editor, al creador, al director de contenido, al productor, en otras palabras, a las personas que toman decisiones sobre qué contenido se debe crear. En teoría, se podrían utilizar datos de tráfico para esto, pero en un futuro cercano, aparentemente, vale la pena desarrollar la habilidad de ingeniería de prompts.

Simulación de Conocimiento

ChatGPT ha creado una serie de problemas para los trabajadores de la educación. Si puede pasar con éxito exámenes universitarios de derecho y negocios, ¿qué decir de una composición escolar? Esta red neuronal ya está ayudando a escribir tesis.

Mientras algunos profesores exigen cambiar solo a formas de enseñanza en las que no se pueda usar redes neuronales, otros creen que ChatGPT puede convertirse en una herramienta educativa por sí mismo: el proceso de interactuar con él es el proceso de aprendizaje.

El problema no se limita al ámbito de la educación. La capacidad de ChatGPT para crear texto coherente sobre cualquier tema abre increíbles oportunidades para cualquier estafador al que la red neuronal ayudará a crear la ilusión de experiencia. En general, la situación no es nueva. Todas estas preocupaciones han existido desde al menos la propagación de Internet, y la desinformación y las noticias falsas, especialmente en las redes sociales, ya son un problema conocido.

ChatGPT Nos Mentirá

Uno de los problemas graves relacionados con ChatGPT es el problema de las «alucinaciones», es decir, la tendencia del modelo a generar respuestas no basadas en la realidad. Este problema surge en parte debido a la limitación del conjunto de datos en el que se entrenó el modelo. Además, entre otras fuentes, ChatGPT también se entrena en historias inventadas, mitos, leyendas y publicaciones en redes sociales. Como resultado, la red neuronal puede generar respuestas basadas en estas fuentes, y los usuarios pueden encontrarse con errores factuales o desinformación.

Para resolver el problema, los desarrolladores están enseñando al modelo a verificar hechos y a limitar los tipos de datos en los que se entrena, y están desarrollando métodos para detectar y filtrar respuestas alucinatorias.

Se puede suponer que con el tiempo el modelo será mejorado y se podrá confiar más en sus datos en general. Sin embargo, el problema más profundo, desde el punto de vista de la filosofía, permanecerá. Incluso si se puede confiar en los datos de ChatGPT, eso no significa que se pueda confiar en él. En términos simples, si se sigue a algunos filósofos, solo podemos confiar en aquellos que son responsables de sus palabras y acciones, es decir, son agentes morales. Y aunque muchos científicos afirman que no solo los humanos pueden ser agentes morales, en el caso de la IA, esto por definición significa una IA fuerte, y este no es el caso de ChatGPT en su forma actual.

En el plano aplicado, la falta de agentividad en la IA plantea la pregunta de quién es responsable de sus acciones: los desarrolladores, los usuarios o ambos. De aquí surge también la cuestión de los derechos de autor sobre las obras creadas con la participación de la IA, otro problema que se está discutiendo activamente en la actualidad.

ChatGPT No Tiene Conciencia

Como hemos descubierto, ChatGPT no es un agente moral, no tiene subjetividad y no es responsable de sus palabras. Los desarrolladores le imponen un sistema de principios morales y puntos de vista, principalmente a través de restricciones, prohibiéndole generar contenido ilegal o ofensivo.

ChatGPT no tiene conciencia
ChatGPT no tiene conciencia

De esto se derivan al menos tres problemas. En primer lugar, los desarrolladores no siempre logran cumplir con esta tarea, y si se desea, se puede hacer que ChatGPT sea racista, sexista e incluso terrorista. Sin embargo, nuevamente, el problema no es nuevo: lo mismo se puede decir de los motores de búsqueda.

En segundo lugar, nos vemos obligados a utilizar una herramienta cuyo sistema ético ha sido diseñado por un equipo específico de personas con las que podemos no estar de acuerdo. Con un problema similar se enfrentó la humanidad en el desarrollo de vehículos autónomos, cuando el famoso dilema del tranvía se convirtió en realidad. ¿Debería un automóvil autónomo sacrificar al conductor si eso conduce a menos víctimas en un accidente? Una de las soluciones, tanto para los vehículos autónomos como para las redes neuronales, es personalizar el sistema ético de la IA. Los desarrolladores pueden dar a los usuarios la opción de elegir los principios morales de la red neuronal, transfiriéndoles así la responsabilidad de sus decisiones. Pero, ¿podrá el usuario crear un compañero racista, o habrá restricciones en la configuración? ¿Quién tomará decisiones sobre estas restricciones: los organismos gubernamentales o OpenAI, que podría convertirse en un monopolio? Todas estas preguntas aún están por responder.

Finalmente, ChatGPT opera mediante la generalización de una enorme cantidad de datos, proporcionando la información más popular y «común», que tiene la mayor probabilidad de ser precisa. Esto puede llevar a la homogeneización del contenido, un entorno en el que las opiniones marginales, impopulares o no evidentes pueden perderse. Hasta ahora, incluso si le pides a ChatGPT que imagine ser un experto extravagante con una opinión impopular, puede resolver el problema estilísticamente, pero se limitará sustancialmente a las mismas palabras generales. A esto se suma el problema de la caja negra: no está claro si el modelo se volverá más inventivo o si esto es una parte integral de la arquitectura del sistema.

ChatGPT Destruirá los Sistemas de Ciberseguridad

Esta red neuronal conlleva una serie de amenazas para la seguridad digital: puede escribir código malicioso, ayudar a redactar correos electrónicos y mensajes de phishing, analizar datos con intenciones criminales y, en última instancia, los propios datos de los usuarios de ChatGPT también pueden estar en riesgo. Un estudio realizado por BlackBerry Limited en febrero de 2023 mostró que el 51% de los expertos en TI creyeron que en el próximo año habrá un ataque cibernético exitoso con la ayuda de ChatGPT, y el 71% creyeron que algunos estados ya están utilizando estas tecnologías maliciosamente contra otros estados.

Sin embargo, ChatGPT puede ser utilizado no solo para delitos digitales, sino también para mejorar la ciberseguridad. Puede ayudar a escribir antivirus, encontrar vulnerabilidades en el código, reconocer correos electrónicos de phishing, etc. Aunque el problema de la ciberseguridad parece ser más obvio y agudo en el contexto del desarrollo de redes neuronales, la principal amenaza, al parecer, no es la herramienta en sí misma, sino la velocidad de su desarrollo, que impide a la humanidad regularla.

Las Personas Usarán ChatGPT para el Mal

En última instancia, como con cualquier herramienta, serán las personas las que decidan cómo usar ChatGPT. Las tecnologías no son neutrales: tienen la visión de los desarrolladores y los prejuicios que surgen de los conjuntos de datos. ChatGPT y otras nuevas redes neuronales realmente pueden cambiar cómo trabajamos, producimos y consumimos información. Sin embargo, como muestra la historia del desarrollo de la tecnología, hasta ahora la humanidad ha logrado adaptarse a los cambios.

Parece que el principal peligro en este momento es la velocidad de desarrollo de estas tecnologías. La humanidad no ha tenido tiempo de comprender la situación, entender cómo manejar estas herramientas, crear reglas de regulación y distribuir responsabilidades. Esto abre una ventana de oportunidades para el uso malicioso de ChatGPT. Es por eso que Elon Musk, junto con otros expertos, el 29 de marzo de 2023 en una carta abierta, propuso poner en pausa el desarrollo de redes neuronales avanzadas y utilizar este tiempo para comprender cómo manejar los riesgos y garantizar un impacto positivo. De una forma u otra, la humanidad aprenderá a manejar esta tecnología, y aunque en este momento todas las consecuencias son impredecibles, ya está claro que el estilo de vida de muchas personas cambiará y muchos tendrán que aprender cosas nuevas.

Compartir este Artículo
Leave a Comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *