WASHINGTON.— A medida que más personas recurren a la inteligencia artificial para pedir consejo, algunos abogados en Estados Unidos están advirtiendo a sus clientes que no traten a los chatbots como confidentes de confianza cuando están en juego su libertad o su responsabilidad legal.
Estas advertencias cobraron mayor urgencia después de que un juez federal de Nueva York dictaminara este año que el ex CEO de una firma de servicios financieros en quiebra no podía proteger sus conversaciones con IA frente a los fiscales que lo investigan por fraude de valores.
Tras el fallo, los abogados comenzaron a advertir que las conversaciones con chatbots como Claude, de Anthropic, o ChatGPT, de OpenAI, pueden ser requeridas por fiscales en causas penales o por la contraparte en litigios civiles.
“Le estamos diciendo a nuestros clientes: hay que proceder con cautela”, señaló Alexandria Gutiérrez Swette, abogada del estudio Kobre & Kim, con sede en Nueva York.
En Estados Unidos, las comunicaciones entre clientes y abogados suelen estar protegidas por confidencialidad. Pero los chatbots no son abogados, y los estudios legales están recomendando tomar recaudos para evitar que esas interacciones queden expuestas.
En correos a clientes y avisos públicos, más de una docena de grandes firmas delinearon recomendaciones para reducir el riesgo de que los chats con IA terminen en tribunales. Incluso, algunas comenzaron a incluir advertencias en sus contratos: compartir asesoramiento legal con un chatbot podría implicar la pérdida del privilegio abogado-cliente.
El caso que encendió las alarmas
El caso que disparó estas advertencias involucra a Bradley Heppner, ex presidente de GWG Holdings y fundador de la firma de activos alternativos Beneficent. Fue acusado en noviembre pasado por fraude bursátil y electrónico, y se declaró inocente.
Heppner utilizó el chatbot Claude para preparar informes sobre su caso que luego compartió con sus abogados. Su defensa intentó evitar que esos documentos fueran entregados, argumentando que contenían información legal sensible.
Sin embargo, los fiscales sostuvieron que podían exigir ese material porque los abogados no participaron directamente en su elaboración y porque el privilegio abogado-cliente no aplica a chatbots.
El juez federal Jed Rakoff falló en febrero que Heppner debía entregar 31 documentos generados con Claude vinculados al caso. En su resolución, dejó en claro que no existe —ni puede existir— una relación abogado-cliente entre un usuario y una plataforma de IA.
El caso marcó un primer test clave sobre cómo se aplican las protecciones legales tradicionales en la era de la inteligencia artificial.
Fallos contradictorios y zona gris legal
El mismo día del fallo de Rakoff, otro juez en Michigan adoptó una postura diferente: permitió que una mujer que se representaba a sí misma en un juicio no entregara sus chats con ChatGPT, al considerarlos parte de su trabajo personal para el caso.
Ese juez sostuvo que los sistemas de IA son “herramientas, no personas”, lo que introduce una distinción clave en el debate legal.
Mientras tanto, tanto OpenAI como Anthropic establecen en sus términos que pueden compartir datos de usuarios con terceros y recomiendan consultar profesionales antes de confiar en sus respuestas para asesoramiento legal.
Rakoff también subrayó en una audiencia que Claude advierte explícitamente que los usuarios no deben esperar privacidad en lo que ingresan.
Abogados buscan poner límites
Frente a este escenario, los estudios jurídicos se apuran a fijar reglas. Las recomendaciones van desde elegir cuidadosamente qué plataformas de IA utilizar hasta sugerir frases específicas al interactuar con estos sistemas.
Algunas firmas plantean que los sistemas cerrados de uso corporativo podrían ofrecer mayor protección, aunque reconocen que esto aún no fue probado en tribunales.
Otras sugieren que el uso de IA podría estar protegido si se realiza bajo instrucción directa de un abogado. En esos casos, incluso recomiendan aclararlo explícitamente en el prompt.
La tendencia ya empieza a reflejarse en contratos legales, donde se advierte que compartir información confidencial con plataformas de IA puede implicar renunciar a protecciones clave.
Hasta que haya más definiciones judiciales, el mensaje de los abogados es directo: no hablar del caso con nadie fuera del abogado… ni siquiera con una IA.

