
En los últimos días, la Agencia Tributaria española ha solicitado la retirada de un GPT personalizado creado para responder preguntas sobre impuestos y tributos. Este chatbot utilizaba el nombre y el logotipo de la Agencia Tributaria, generando un intenso debate.
¿Es esta reacción un signo de miedo por parte de la Agencia Tributaria ante la inteligencia artificial como herramienta de comunicación? ¿O es una medida necesaria para proteger derechos legales, evitar confusiones y garantizar la seguridad jurídica?
Te quiero compartir mi análisis y opinión sobre este caso, destacando cómo la formación y el acompañamiento profesional en la adopción de la inteligencia artificial es esencial en toda la sociedad, especialmente para las empresas o instituciones que son quienes harán un uso más exhaustivo de la IA en sus procesos y también los responsables de poner a disposición de los usuarios herramientas y servicios basados en IA generativa. Es elemental un trabajo de educación en entender el funcionamiento, fortalezas y debilidades de la IA por parte de toda la sociedad, ya que no todo vale.
¿La Agencia Tributaria tiene miedo a la inteligencia artificial?
Este caso tiene varios matices. Por un lado, entiendo que la Agencia Tributaria pueda estar mostrando cierto recelo ante la inteligencia artificial como tecnología. Al tratarse de una institución pública, su adopción de nuevas herramientas está condicionada por la necesidad de garantizar la confianza de los ciudadanos. ¿Podría esta reacción ser una muestra de resistencia al cambio? Es posible.
Por otro lado, hay una cuestión más profunda: la responsabilidad de proteger derechos legales y la seguridad jurídica. El uso no autorizado del nombre y logotipo de una institución oficial es un problema serio. Puede llevar a confusión entre los ciudadanos, comprometiendo tanto la información como los procesos tributarios en España. Este debate no es solo sobre miedo, sino sobre cómo se gestionan las nuevas herramientas y canales digitales.
No es solo un problema de tecnología, también de canales de interacción
La inteligencia artificial no solo ofrece herramientas poderosas, sino también nuevos canales para interactuar con los usuarios. Un ejemplo claro es el marketplace de GPT personalizados de OpenAI, donde cualquiera puede crear asistentes digitales accesibles al público.
Sin embargo, esta libertad no significa que podamos ignorar las reglas básicas de ética y responsabilidad. El problema aquí no es únicamente el mal uso de la tecnología, sino el mal uso del canal.
Piénsalo: si alguien creara una página web o un perfil de Facebook con el logotipo de la Agencia Tributaria, sería un acto claramente inapropiado. Lo mismo ocurre con este caso. No es que la IA sea el problema, sino cómo estamos gestionando las plataformas que la IA nos ofrece como nuevos espacios de interacción.
La clave para evitar problemas está en regular y educar sobre la IA
Este caso deja clara la necesidad de establecer normas y formar a las personas en el uso adecuado de la inteligencia artificial y sus canales. Aquí te cuento tres acciones fundamentales que considero necesarias:
- Certificación y responsabilidad profesional para asistentes públicos digitales.
Es imprescindible crear sistemas que certifiquen que quienes diseñan asistentes digitales accesibles al público tienen el conocimiento necesario para hacerlo de forma responsable. Esto no significa restringir la creación, sino garantizar que los usuarios finales reciban información fiable y respaldada. - Advertencias claras para los usuarios.
Los creadores de asistentes digitales deben informar de manera explícita que su herramienta no representa a ninguna institución oficial y que la información proporcionada podría no estar actualizada. Esto evita malentendidos y protege la confianza en estas herramientas. - Educación sobre la IA como herramienta y los nuevos canales digitales.
La IA no es solo una tecnología, sino que a su alrededor surgen nuevos canales de interacción digital, como el marketplace de GPT personalizados de OpenAI. Es fundamental educar a las personas y empresas en cómo usar estas herramientas y canales de manera ética y responsable, adaptando las reglas que ya aplicamos en otros espacios digitales.
Este caso muestra los retos y oportunidades de la inteligencia artificial
Este incidente no es solo un debate sobre la adopción de la inteligencia artificial. También pone de manifiesto la falta de regulación y educación sobre cómo integrar sus herramientas y canales en la sociedad de manera responsable.
Si queremos aprovechar al máximo el potencial de los marketplaces de IA y herramientas como ChatGPT, debemos actuar con sentido común y establecer normas claras. Esto incluye proteger derechos legales, garantizar la calidad de los asistentes digitales y formar a los usuarios para que comprendan tanto las posibilidades como los límites de estas tecnologías.
Como reflexión final, creo que no debemos ver la inteligencia artificial como una amenaza, sino como una oportunidad que requiere regulación y responsabilidad. Aprender a convivir con ella es el reto, pero también el camino hacia un futuro donde estas herramientas puedan transformar nuestra interacción digital de forma positiva. He dicho.
¿Quieres aprender más sobre inteligencia artificial?
Suscríbete a mi newsletter y recibe contenido exclusivo sobre cómo implementar IA generativa en tu negocio de forma responsable y efectiva.