El Tribunal Superior del Condado de Gwinnett (Estados Unidos) concedió un juicio sumario a favor de la empresa OpenAI, propietaria de ChatGPT. El demandante, Mark Walters, figura pública y comentarista sobre el derecho a portar armas, presentó una demanda por difamación contra la compañía tras una interacción entre un periodista y el chatbot de inteligencia artificial ChatGPT. En dicha interacción, ChatGPT generó una respuesta que atribuía a Walters una supuesta implicación en una malversación de fondos en la organización SAF, lo cual resultó ser falso.
El tribunal determinó que, conforme a los estándares aplicables en materia de difamación, un lector razonable no habría interpretado la respuesta generada por ChatGPT como una afirmación de hechos verificables. Esta conclusión se basó en tres fundamentos independientes. Primero, se consideró que el contenido impugnado no cumplía con el umbral objetivo necesario para que un lector razonable entendiera las declaraciones como hechos reales, especialmente a la luz de las advertencias proporcionadas por el sistema y por los términos de uso del servicio.
Segundo, el tribunal valoró la conducta del periodista, quien había introducido texto de una denuncia en el sistema y, posteriormente, proporcionó una URL que ChatGPT indicó no poder procesar. Pese a esta advertencia, el sistema emitió una respuesta inexacta que fue reconocida como tal por el propio usuario tras un breve lapso de tiempo. En este sentido, se constató que el periodista no consideró verdadera la información generada, lo cual resulta relevante para descartar la existencia de una comunicación difamatoria bajo los parámetros legales establecidos.
Tercero, el tribunal analizó el estándar de diligencia exigible a OpenAI. El demandante no presentó pruebas que demostrasen que OpenAI se apartó de los procedimientos que una entidad razonable en su posición habría empleado antes de poner en funcionamiento un modelo como ChatGPT. Por el contrario, OpenAI aportó evidencia técnica, acreditando que ha implementado medidas destinadas a reducir errores en las respuestas generadas, incluida la capacitación del modelo mediante aprendizaje por refuerzo con retroalimentación humana, y la provisión de advertencias claras y recurrentes a los usuarios.
El tribunal también abordó la condición del demandante como figura pública, lo que activa el estándar de “malicia real” conforme a la doctrina jurisprudencial aplicable. Dicha condición fue respaldada por su notoriedad como presentador de radio, su participación activa en debates públicos sobre derechos constitucionales y su audiencia significativamente amplia. Bajo este estándar, el demandante debía demostrar que OpenAI emitió la declaración con conocimiento de su falsedad o con temerario desprecio hacia su veracidad, elemento que no fue acreditado.
Asimismo, el tribunal constató que Walters no logró demostrar daños reales, ni cumplió con el requisito de solicitar una retractación previa a la interposición de la acción, tal como exige la legislación del estado de Georgia para el reclamo de daños punitivos en casos de difamación. También se concluyó que la declaración generada por el sistema no fue difundida a terceros ni provocó afectación demostrable al honor del demandante, habida cuenta de que el único receptor fue el propio periodista, quien no le otorgó credibilidad.
En consecuencia, el tribunal resolvió que no concurrían los elementos necesarios para sostener una acción de difamación conforme al marco normativo y jurisprudencial vigente y, por tanto, otorgó el juicio sumario solicitado por OpenAI, poniendo fin al proceso judicial en instancia.