Por mucho que personajes como Sam Altman o Bill Gates se esfuercen en lo contrario, la inteligencia artificial genera una gran incertidumbre. No es para menos. Raro es el día que no surge una nueva voz alertando de los peligros de esta tecnología. Actualmente ya son muchos los expertos que hablan de pérdidas masivas de trabajo y peligrosas suplantaciones de médicos o psicólogos.
Teniendo esto en cuenta, tampoco es extraño que muchos investigadores intenten desarrollar diversos estudios con los que analizar en profundidad los riesgos de la IA, y las mejores formas que pueden existir para contrarrestarlos. Curiosamente, casi siempre los resultados tienden a ser inquietantes, incluso cuando el asunto se quiere afrontar de la manera más objetiva posible.
ChatGPT va a tener un problema de salud mental, dicen los expertos
Uno de los últimos resultados a este respecto es el manifiesto bautizado como Psychopathia Machinalis. O lo que es lo mismo, un trabajo realizado por los investigadores Nell Watson y Ali Hessami, ambos pertenecientes al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y expertos en inteligencia artificial y herramientas como ChatGPT.
Básicamente, el documento consiste en lo siguiente: un intento por identificar las 32 maneras que, según sus autores, la IA tiene de descontrolarse. Es decir, de terminar por ser un peligro para la humanidad en algún momento. ¿Lo más llamativo del asunto? Que para ello han creado muchas analogías no ya con el ser humano, sino con su propia psicología. Y con la llamada salud mental.
Lo que el Psychopathia Machinalis viene a expresar es que, igual que la mente humana puede tener disfunciones, por así llamarlas, la IA es capaz de sufrir problemas similares. O será capaz de sufrirlas en algún momento, en especial cuando llegue la supuesta inteligencia artificial general. El salto evolutivo que, según numerosos expertos, marcará un antes y un después para todos.
¿Y qué problemas serán esos? Pues algunos muy humanos, como obsesiones, ansiedad o alucinaciones. Quizá su origen no sea el mismo que genera estos trastornos en la gente, pero los comportamientos, según los especialistas, sí se parecerán un montón. Por eso han decidido que es tan importante analizarlos todos, compilarlos y ver cuál es la mejor forma de intentar combatirlos, hoy y mañana.
La IA al diván del psicólogo, aunque suene a ciencia ficción
La principal respuesta que los investigadores han dado es lo que ellos mismos han denominado “robopsicológica terapéutica”. ¿Suena extraño? Pues su significado lo es más aún: tratar a la IA con terapias psicológicas semejantes a las que se usan en humanos. No tanto imponer restricciones externas sino procurar dotar a ChatGPT y demás de una ética interna. Una “cordura artificial”.
El objetivo está claro: que la IA no se descontrole, conserve una coherencia y, sobre todo, se mantenga firme a la hora de proteger los principales valores humanos. Puede que algunos estén de acuerdo y otros no con estas intenciones, pero lo que no alberga dudas es la magnitud y relevancia de todo lo que está relacionado con la IA. Que cada día es más, desde luego.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial





