AI Acceptable Use Policy
Effective Date: March 1, 2026
1. Purpose
This AI Acceptable Use Policy ("AUP") establishes guidelines for the responsible, ethical, and lawful
use of artificial intelligence systems designed, deployed, and managed by TEVANETWORK ("we," "us,"
or "our") on behalf of our clients and within our own operations. This policy applies to all
employees, contractors, partners, and clients who interact with AI systems provided by TEVANETWORK.
2. Scope
This policy covers all forms of AI technology including, but not limited to:
- Large Language Models (LLMs) and generative AI systems.
- Agentic AI and autonomous multi-agent workflows.
- Retrieval-Augmented Generation (RAG) pipelines.
- Machine learning models used for prediction, classification, and recommendation.
- AI-powered data analysis and decision-support tools.
3. Permitted Uses
AI systems provided by TEVANETWORK may be used for:
- Business process automation and workflow optimization.
- Data analysis, pattern recognition, and predictive analytics.
- Customer service enhancement through AI-assisted communication.
- Content generation and summarization with appropriate human oversight.
- Research, development, and innovation within ethical boundaries.
4. Prohibited Uses
The following uses of TEVANETWORK AI systems are strictly prohibited:
- Deception: Generating content designed to deceive, manipulate, or mislead,
including deepfakes, disinformation, or impersonation.
- Discrimination: Using AI to make decisions that unlawfully discriminate based
on race, gender, age, disability, religion, national origin, or any other protected
characteristic.
- Unauthorized Surveillance: Deploying AI for mass surveillance, unauthorized
facial recognition, or tracking individuals without their consent or legal authorization.
- Weapon Development: Using AI systems for the development, enhancement, or
deployment of autonomous weapons or tools of harm.
- Data Exploitation: Extracting, selling, or repurposing personal data beyond the
scope defined in applicable data processing agreements and privacy policies.
- Circumventing Safety: Intentionally bypassing, disabling, or weakening AI
safety measures, guardrails, content filters, or access controls.
- Unsanctioned Autonomy: Deploying AI agents with autonomous decision-making
authority in high-risk scenarios (healthcare, finance, legal) without human-in-the-loop
oversight.
5. Human Oversight Requirements
All AI systems deployed by TEVANETWORK adhere to "Human-in-the-Loop" (HITL) principles:
- AI outputs used for decision-making must be reviewed by a qualified human before action is taken
in high-stakes contexts.
- Agentic AI workflows must include defined escalation points where human intervention is
required.
- Clients must designate an AI Governance Officer (or equivalent) responsible for overseeing AI
usage within their organization.
6. Bias Mitigation & Fairness
TEVANETWORK is committed to mitigating algorithmic bias:
- We conduct regular bias audits on all deployed models.
- Training data is reviewed for representational balance and potential sources of bias.
- Clients are informed of known limitations and potential biases in AI outputs.
- We provide mechanisms for users and stakeholders to report potential bias or unfair outcomes.
7. Transparency & Explainability
- Users interacting with AI-generated content or AI-powered interfaces will be informed that they
are engaging with an AI system.
- AI-generated content must be clearly labeled when there is a risk of confusion with
human-produced content.
- Upon request, TEVANETWORK will provide general explanations of how AI systems process data and
arrive at outputs.
8. Data Handling in AI Systems
- All data processed by AI systems is subject to our Privacy Policy and applicable data protection
laws.
- Sensitive data (PII, PHI, financial records) used in AI training or inference is encrypted and
access-controlled.
- AI models are configured to prevent unintentional memorization or leakage of training data.
- Client data used for AI model fine-tuning is isolated and never shared across clients.
9. Incident Reporting & Response
If you become aware of any misuse, malfunction, or unintended behavior of a TEVANETWORK AI system,
report it immediately to:
Email: [email protected]
We will investigate all reported incidents within 48 hours, implement corrective measures, and
communicate findings to affected parties.
10. Compliance & Enforcement
This AUP is designed to align with the following 2026 regulatory frameworks:
- Colorado AI Act
- Texas Responsible AI Governance Act (TRAIGA)
- California Automated Decision-Making Technology (ADMT) Regulations
- EU AI Act (where applicable to international engagements)
Violations of this policy may result in suspension of access to AI systems, termination of services,
and referral to appropriate legal authorities where criminal activity is suspected.
11. Policy Updates
This policy is reviewed quarterly and updated to reflect changes in AI technology, emerging
regulations, and industry best practices. Material changes will be communicated to all affected
parties.
12. Contact
For questions about this policy, contact us at: [email protected]
Política de Uso Aceptable de IA
Fecha de Vigencia: 1 de marzo de 2026
1. Propósito
Esta Política de Uso Aceptable de IA ("PUA") establece directrices para el uso responsable, ético y
legal de los sistemas de inteligencia artificial diseñados, desplegados y gestionados por
TEVANETWORK ("nosotros" o "nuestro") en nombre de nuestros clientes y dentro de nuestras propias
operaciones. Esta política aplica a todos los empleados, contratistas, socios y clientes que
interactúan con los sistemas de IA proporcionados por TEVANETWORK.
2. Alcance
Esta política cubre todas las formas de tecnología de IA, incluyendo pero no limitado a:
- Modelos de Lenguaje Grandes (LLMs) y sistemas de IA generativa.
- IA agéntica y flujos de trabajo autónomos multi-agente.
- Pipelines de Generación Aumentada por Recuperación (RAG).
- Modelos de aprendizaje automático utilizados para predicción, clasificación y recomendación.
- Herramientas de análisis de datos y soporte de decisiones potenciadas por IA.
3. Usos Permitidos
Los sistemas de IA proporcionados por TEVANETWORK pueden utilizarse para:
- Automatización de procesos empresariales y optimización de flujos de trabajo.
- Análisis de datos, reconocimiento de patrones y analítica predictiva.
- Mejora del servicio al cliente mediante comunicación asistida por IA.
- Generación y resumen de contenido con supervisión humana apropiada.
- Investigación, desarrollo e innovación dentro de límites éticos.
4. Usos Prohibidos
Los siguientes usos de los sistemas de IA de TEVANETWORK están estrictamente prohibidos:
- Engaño: Generar contenido diseñado para engañar, manipular o inducir a error,
incluyendo deepfakes, desinformación o suplantación de identidad.
- Discriminación: Usar IA para tomar decisiones que discriminen ilegalmente por
raza, género, edad, discapacidad, religión, origen nacional o cualquier otra característica
protegida.
- Vigilancia No Autorizada: Desplegar IA para vigilancia masiva, reconocimiento
facial no autorizado o rastreo de personas sin su consentimiento o autorización legal.
- Desarrollo de Armas: Usar sistemas de IA para el desarrollo, mejora o
despliegue de armas autónomas o herramientas de daño.
- Explotación de Datos: Extraer, vender o reutilizar datos personales más allá
del alcance definido en los acuerdos de procesamiento y políticas de privacidad aplicables.
- Eludir Seguridad: Evadir, desactivar o debilitar intencionalmente las medidas
de seguridad de IA, barreras de protección, filtros de contenido o controles de acceso.
- Autonomía No Sancionada: Desplegar agentes de IA con autoridad autónoma de toma
de decisiones en escenarios de alto riesgo (salud, finanzas, legal) sin supervisión humana en el
ciclo.
5. Requisitos de Supervisión Humana
Todos los sistemas de IA desplegados por TEVANETWORK cumplen con los principios de "Humano en el
Ciclo" (HITL):
- Las salidas de IA utilizadas para la toma de decisiones deben ser revisadas por un humano
cualificado antes de actuar en contextos de alto riesgo.
- Los flujos de trabajo de IA agéntica deben incluir puntos de escalación definidos donde se
requiera intervención humana.
- Los clientes deben designar un Oficial de Gobernanza de IA (o equivalente) responsable de
supervisar el uso de IA dentro de su organización.
6. Mitigación de Sesgos y Equidad
TEVANETWORK está comprometido con la mitigación del sesgo algorítmico:
- Realizamos auditorías regulares de sesgo en todos los modelos desplegados.
- Los datos de entrenamiento se revisan para equilibrio representacional y posibles fuentes de
sesgo.
- Los clientes son informados de las limitaciones conocidas y sesgos potenciales en las salidas de
IA.
- Proporcionamos mecanismos para que usuarios y partes interesadas reporten posibles sesgos o
resultados injustos.
7. Transparencia y Explicabilidad
- Los usuarios que interactúan con contenido generado por IA o interfaces potenciadas por IA serán
informados de que están interactuando con un sistema de IA.
- El contenido generado por IA debe etiquetarse claramente cuando exista riesgo de confusión con
contenido producido por humanos.
- Bajo solicitud, TEVANETWORK proporcionará explicaciones generales de cómo los sistemas de IA
procesan datos y llegan a sus resultados.
8. Manejo de Datos en Sistemas de IA
- Todos los datos procesados por sistemas de IA están sujetos a nuestra Política de Privacidad y
leyes de protección de datos aplicables.
- Los datos sensibles (PII, PHI, registros financieros) utilizados en entrenamiento o inferencia
de IA están cifrados y con acceso controlado.
- Los modelos de IA están configurados para prevenir la memorización o fuga no intencional de
datos de entrenamiento.
- Los datos de clientes utilizados para el ajuste fino de modelos están aislados y nunca se
comparten entre clientes.
9. Reporte de Incidentes y Respuesta
Si tiene conocimiento de cualquier mal uso, mal funcionamiento o comportamiento no deseado de un
sistema de IA de TEVANETWORK, repórtelo inmediatamente a:
Email: [email protected]
Investigaremos todos los incidentes reportados dentro de 48 horas, implementaremos medidas
correctivas y comunicaremos los hallazgos a las partes afectadas.
10. Cumplimiento y Aplicación
Esta PUA está diseñada para alinearse con los siguientes marcos regulatorios de 2026:
- Ley de IA de Colorado
- Ley de Gobernanza Responsable de IA de Texas (TRAIGA)
- Regulaciones de Tecnología de Toma de Decisiones Automatizada (ADMT) de California
- Ley de IA de la UE (donde aplique a compromisos internacionales)
Las violaciones de esta política pueden resultar en la suspensión del acceso a sistemas de IA,
terminación de servicios y referencia a las autoridades legales apropiadas cuando se sospeche
actividad criminal.
11. Actualizaciones de la Política
Esta política se revisa trimestralmente y se actualiza para reflejar cambios en la tecnología de IA,
regulaciones emergentes y mejores prácticas de la industria. Los cambios materiales se comunicarán a
todas las partes afectadas.
12. Contacto
Para preguntas sobre esta política, contáctenos en: [email protected]