Saltar al contenido
Hot News

Cofres de Dignificación: Un Camino hacia la Restauración y la Verdad

PROPUESTA DE POLÍTICA PÚBLICA: “INFANCIA PROTEGIDA DIGITAL”

¡Hola mundo!

The Policy Shift That Could Radically Change the Housing Crisis

5 Innovative Smart Home Devices You Didn’t Know You Absolutely Needed

The Pros and Cons of Switching to a Fully Digital Payment Wallet

  • Try Pro VersionTry PRO
  • Home
  • Politics
  • Technology
  • Contact
Main Menu
  • Try Pro VersionTry PRO
  • Home
  • Politics
  • Technology
  • Contact

About Me

Nick Mars - Lorem ipsum dolor sit amet, consectetur adipisicing elit. Minima incidunt voluptates nemo, dolor optio quia architecto quis delectus perspiciatis. Nobis atque id hic neque possimus voluptatum voluptatibus tenetur, perspiciatis consequuntur.

Social Icons

Facebook1,750FanáticosMe gustaX (Twitter)759SeguidoresSeguirInstagram2,500SeguidoresSeguirPinterest1,365SeguidoresPinYoutube2,700SuscriptoresSuscribirseTiktok2,900SeguidoresSeguirTelegram2,000MiembrosUnirseSoundcloud1,963SeguidoresSeguirVimeo1,254SeguidoresSeguirDribbble3,520SeguidoresSeguir
  • Support
    • Documentation
    • Video Tutorials
    • Support
  • About theme
  • Visit Us
lunes, diciembre 1, 2025
Home / Derecho Digital / PROPUESTA DE POLÍTICA PÚBLICA: “INFANCIA PROTEGIDA DIGITAL”
  • Control Social
  • Derecho Digital

PROPUESTA DE POLÍTICA PÚBLICA: “INFANCIA PROTEGIDA DIGITAL”

Por VControlSocial
No hay comentarios
9 octubre, 2025 6:55 am

Regulación algorítmica y ecosistema de protección integral considerando la realidad de exposición inevitable

RECONOCIMIENTO DEL CONTEXTO REAL: LA IMPOSIBILIDAD DE AISLAMIENTO DIGITAL

Premisa fundamental de la política

Es materialmente imposible y pedagógicamente contraproducente intentar aislar completamente a los menores de la tecnología digital. Esta política parte de reconocer una realidad innegable:

1. Ubicuidad tecnológica inevitable

Los menores están expuestos a tecnología digital en múltiples contextos fuera del control parental directo:

  • En casa de amigos, familiares, vecinos (78% de menores accede a dispositivos ajenos)
  • En espacios públicos (cafés internet, bibliotecas, parques con WiFi público)
  • En instituciones educativas (uso pedagógico pero también recreativo)
  • En transporte público (dispositivos de terceros, publicidad digital)
  • En consultorios médicos, salas de espera, centros comerciales (pantallas omnipresentes)
  • A través de pares (un amigo les muestra contenido en su dispositivo)

Dato crítico: El 89% de padres que restringen dispositivos en casa reportan que sus hijos acceden a contenido digital por otras vías (Estudio Universidad de los Andes, 2023)

2. Limitaciones prácticas del control parental

Realidades que enfrentan las familias colombianas:

  • Familias monoparentales (35% de hogares): Un solo adulto debe trabajar, cuidar, supervisar → imposibilidad física de monitoreo constante
  • Padres trabajadores (jornadas laborales promedio de 10 horas): Menores solos 4-6 horas diarias
  • Brecha digital generacional: 68% de padres reconoce “no entender” tecnologías que usan sus hijos
  • Dispositivos múltiples: Controlar celular no previene acceso por tablet, computador, consola, smart TV, dispositivo de hermano
  • Habilidad técnica de menores: 82% de adolescentes sabe cómo eludir controles parentales básicos
  • Presión social: “Todos mis amigos lo tienen/lo usan” genera conflictos familiares insostenibles

Caso real documentado: Padre instala control parental riguroso → hijo accede en casa de amigos → se expone a contenido más riesgoso por falta de educación digital crítica → no se atreve a contarle a padre por miedo a castigo → perpetúa exposición riesgosa en secreto.

Conclusión: Control parental como única estrategia es insuficiente, a menudo contraproducente, y puede generar desconfianza familiar.

3. Necesidad evolutiva de autonomía progresiva

Fundamento en Convención de Derechos del Niño:

  • Los menores tienen derecho a autonomía progresiva según madurez
  • No son objetos pasivos de protección sino sujetos activos de derechos
  • Sobreprotección infantiliza y no prepara para vida digital adulta

Paradoja del aislamiento:

  • Niño totalmente restringido de tecnología a los 10 años
  • A los 18 años recibe autonomía total sin preparación
  • Mayor riesgo de victimización por inexperiencia

Lo que funciona: Acompañamiento gradual, educación crítica, desarrollo de criterio propio

4. Inevitabilidad de la exposición accidental

Aún con todas las medidas, exposición accidental es estadísticamente inevitable:

  • Publicidad invasiva: Pop-ups sexuales en sitios legítimos que visitan menores
  • Contenido engañoso: Videos de apariencia infantil que derivan en violencia (Elsagate en YouTube)
  • Links maliciosos: Compañeros comparten sin saber contenido real
  • Contenido generado por usuarios: Imposible filtrar 100% en plataformas con millones de videos/día
  • Espacios compartidos digitales: Salas de chat, videojuegos multijugador donde otros usuarios pueden compartir contenido

Dato revelador: 45% de primera exposición a pornografía fue totalmente accidental mientras buscaban contenido inocente (Estudio RedPaPaz 2023)

ENFOQUE DE LA POLÍTICA: PROTECCIÓN REALISTA Y MULTIDIMENSIONAL

Principios rectores ajustados

1. PRINCIPIO DE IMPOSIBILIDAD DE AISLAMIENTO TOTAL

  • Reconocimiento explícito: No existe forma de garantizar cero exposición
  • Objetivo realista: Minimizar exposición nociva y maximizar resiliencia del menor

2. PRINCIPIO DE CORRESPONSABILIDAD DISTRIBUIDA

NO es responsabilidad exclusiva de:

  • Padres (no pueden estar 24/7, no tienen experticia técnica, enfrentan limitaciones materiales)
  • Escuelas (tienen limitaciones de recursos, no controlan dispositivos personales)
  • Menores (no tienen madurez cognitiva para autorregulación plena)

ES responsabilidad COMPARTIDA de:

  • PLATAFORMAS DIGITALES (deber primario: diseño seguro, algoritmos no nocivos)
  • ESTADO (regulación, supervisión, educación, protección)
  • FAMILIAS (acompañamiento, comunicación, modelaje)
  • SECTOR EDUCATIVO (alfabetización digital crítica)
  • SOCIEDAD CIVIL (vigilancia, denuncia, apoyo comunitario)

3. PRINCIPIO DE PROTECCIÓN EN EL DISEÑO (NO SOLO EN LA RESTRICCIÓN)

Enfoque tradicional fallido:

  • “Prohibamos que niños accedan”
  • Falla porque es materialmente imposible

Enfoque de esta política:

  • “Obliguemos a que la tecnología sea segura POR DISEÑO”
  • “Cuando un niño inevitablemente acceda, que encuentre entornos menos nocivos”

Analogía: No solo enseñamos a niños a no cruzar calles peligrosas; exigimos que las calles tengan semáforos, señalización, límites de velocidad, reductores de velocidad.

4. PRINCIPIO DE RESILIENCIA DIGITAL

Más allá de prevenir exposición (imposible 100%), preparar a menores para:

  • Reconocer contenido nocivo cuando lo vean
  • Saber qué hacer cuando se expongan accidentalmente
  • Desarrollar pensamiento crítico ante información online
  • Pedir ayuda sin miedo a castigo
  • Autorregularse progresivamente

5. PRINCIPIO DE PROPORCIONALIDAD SEGÚN EDAD

  • 0-6 años: Máxima protección, mínima exposición (etapa crítica desarrollo cerebral)
  • 7-11 años: Protección alta con introducción educativa supervisada
  • 12-14 años: Transición, autonomía progresiva con salvaguardas
  • 15-17 años: Preparación para autonomía adulta, énfasis en criterio propio

6. PRINCIPIO DE COMUNICACIÓN SOBRE CENSURA

Reconocimiento: Prohibiciones absolutas sin explicación generan:

  • Curiosidad aumentada (efecto fruto prohibido)
  • Búsqueda en secreto
  • Ruptura de confianza familiar
  • Exposición riesgosa sin red de apoyo

Alternativa: Diálogo abierto, explicación de riesgos, construcción de criterio propio

COMPONENTES DE LA POLÍTICA AJUSTADOS A REALIDAD

COMPONENTE 1: REGULACIÓN OBLIGATORIA DE PLATAFORMAS (Responsabilidad primaria)

Línea 1.1: Diseño Seguro por Defecto – “Safe by Default”

Fundamento: Si es imposible evitar que menores accedan, la tecnología misma debe ser menos nociva en su diseño básico.

A) Obligación de diseño apropiado para edad (Age-Appropriate Design)

Para TODOS los usuarios menores de 18 años (verificados o no):

  1. Detección proactiva de menores no verificados:

Obligación: Plataformas deben implementar IA conductual que detecte:

  • Patrones de escritura típicos de menores (vocabulario, errores ortográficos, temas)
  • Comportamiento de navegación infantil/adolescente
  • Metadatos (horarios escolares, ubicaciones frecuentes cerca de colegios)
  • Interacciones con otros usuarios identificados como menores

Cuando IA detecta “probable menor”:

  • Aplicar automáticamente protecciones de cuenta infantil
  • Solicitar verificación de edad
  • Mientras tanto, mantener configuraciones restrictivas

Prohibición: No pueden simplemente ignorar presencia evidente de menores no verificados

Sanción: $10 millones por cada menor no verificado que la plataforma debió detectar razonablemente

  1. Configuraciones protectoras aplicadas a toda cuenta sospechosa:

Aunque el usuario declare ser mayor de 18 (sin verificar), si comportamiento sugiere menor:

  • Feed curado menos riesgoso:
    • Filtros automáticos de contenido sexual, violento, extremo
    • No desaparece completamente (imposible) pero reduce probabilidad
    • Más contenido educativo/positivo en recomendaciones
  • Límites de interacción:
    • Solo puede ser contactado por “amigos mutuos”
    • Usuarios adultos verificados no pueden buscar/contactar perfiles identificados como posibles menores
    • Restricciones en mensajería directa (no recibe DMs de desconocidos)
  • Alertas de seguridad:
    • Mensajes educativos: “Esto que estás viendo podría ser información falsa sobre salud”
    • Interrupciones periódicas: “Has estado 2 horas, ¿tomar un descanso?”
    • Recursos: “Si te sientes mal por lo que viste, habla con adulto de confianza [botón para recursos]”
  1. Diseño no adictivo como estándar (no solo para menores verificados):

Reconocimiento: Aunque plataforma no sepa con certeza quién es menor, debe diseñar asumiendo que menores accederán.

Obligatorio en toda la plataforma (beneficia a todos):

  • Eliminar scroll infinito: Pausas cada 20 contenidos
  • Eliminar autoplay invasivo: Usuario debe elegir activamente ver siguiente video
  • Notificaciones limitadas: Máximo 3/día, no en horario escolar/nocturno
  • Transparencia en tiempo de uso: Contador visible, resúmenes semanales
  • Opción de “modo concentración”: Desactiva elementos distractores

Beneficio dual: Protege a menores Y mejora bienestar de adultos

B) Filtros de contenido con múltiples capas (defensa en profundidad)

Reconocimiento: Ningún filtro es 100% efectivo, por eso se implementan capas sucesivas:

Capa 1 – Clasificación en origen:

  • Creadores de contenido deben etiquetarlo (sexual, violento, lenguaje explícito)
  • IA verifica/corrige etiquetado automáticamente
  • Contenido no etiquetado tratado como “potencialmente inadecuado”

Capa 2 – Filtrado algorítmico preventivo:

  • IA analiza contenido antes de indexarlo/recomendarlo
  • Bloquea lo explícitamente prohibido
  • Marca como “requiere verificación de edad” lo borderline
  • Prioriza falsos positivos sobre falsos negativos en contextos infantiles (mejor bloquear contenido legítimo que permitir nocivo)

Capa 3 – No recomendación activa:

  • Aunque contenido exista, algoritmo NO lo recomienda a menores
  • Si menor lo busca activamente, aparece advertencia antes de mostrarlo
  • Se registra para análisis de comportamiento de riesgo

Capa 4 – Reportes y moderación reactiva:

  • Usuarios pueden reportar
  • Revisión humana rápida (4 horas para contenido sobre menores)
  • Retroalimentación para mejorar IA

Capa 5 – Auditoría externa trimestral:

  • Tercero independiente verifica efectividad de filtros
  • Prueba con muestras aleatorias
  • Publicación de tasa de error

Transparencia sobre limitaciones:

  • Plataformas deben informar públicamente: “Nuestros filtros tienen X% de error”
  • Educar a usuarios: “Ningún filtro es perfecto, reporta lo inapropiado”

C) Protocolo de exposición accidental

Reconocimiento: Menor inevitablemente verá algo nocivo en algún momento.

Obligación de plataformas cuando detectan que menor se expuso:

  1. Interrupción inmediata:
    • Detener reproducción de contenido
    • No mostrar contenidos similares en adelante
  2. Mensaje de apoyo (no culpabilizador):
    • “Lo que acabas de ver podría ser perturbador”
    • “No fue tu culpa, a veces el contenido inapropiado aparece”
    • “¿Cómo te sientes?”
  3. Recursos inmediatos:
    • Botón directo para hablar con adulto de confianza
    • Líneas de apoyo (psicológico, denuncia)
    • Información educativa contextualizada
  4. Notificación a padres/tutores (si cuenta verificada):
    • Alerta: “Tu hijo se expuso a contenido [categoría]”
    • Sugerencias de cómo hablar al respecto
    • Sin compartir detalles explícitos (proteger privacidad del menor)
  5. Ajuste algorítmico:
    • Aprender de la falla: ¿cómo llegó ese contenido al menor?
    • Mejorar filtros
    • Auditoría de contenido similar

Sanción por NO implementar protocolo: $5,000 millones

Línea 1.2: Transparencia y Auditoría Algorítmica Obligatoria

A) Registro Nacional de Algoritmos que Afectan Menores

Obligación: Toda plataforma con presencia en Colombia debe registrar ante Superintendencia de Protección Digital Infantil (a crear):

  • Descripción técnica del algoritmo de recomendación
  • Datos que utiliza
  • Lógica de decisión
  • Medidas de protección infantil implementadas
  • Evaluación de Impacto en Derechos del Niño (EIDN)

Público: Versión simplificada accesible a ciudadanía

Actualización: Cada vez que se modifique sustancialmente el algoritmo

B) Auditorías algorítmicas trimestrales por tercero independiente

Alcance de la auditoría:

  1. Prueba de exposición controlada:
    • Crear perfiles falsos de menores (con consentimiento ético)
    • Observar qué contenido recomienda el algoritmo
    • Documentar fallas (contenido nocivo que pasó filtros)
  2. Análisis de sesgos:
    • Verificar que algoritmo no discrimina (género, etnia, condición socioeconómica)
    • Comprobar que diversifica contenido (no crea burbujas extremas)
  3. Efectividad de filtros:
    • Muestra aleatoria de contenido
    • Tasa de falsos negativos (nocivo que pasó) y falsos positivos (legítimo bloqueado)
    • Comparación con estándares internacionales
  4. Tiempo de respuesta a reportes:
    • Verificar que cumplan 4 horas para contenido crítico

Resultado: Informe público trimestral con calificación:

  • Verde: Cumplimiento satisfactorio
  • Amarillo: Deficiencias menores
  • Rojo: Incumplimiento grave → sanción + orden de corrección inmediata

Auditor: Debe ser acreditado ante Superintendencia (universidades, consultoras especializadas, ONG reconocidas)

Costo: Asumido por plataforma (proporcional a ingresos)

C) Derecho a explicación para menores y familias

Cualquier menor o su representante puede solicitar:

“¿Por qué el algoritmo me mostró/recomendó este contenido?”

Plataforma debe responder en máximo 5 días hábiles con:

  • Explicación comprensible (sin tecnicismos)
  • Factores que influyeron en la recomendación
  • Cómo evitar recomendaciones similares
  • Si fue error del algoritmo, medidas correctivas tomadas

Si la respuesta es insatisfactoria: Recurso ante Superintendencia

Línea 1.3: Responsabilidad Legal Efectiva (no elusible)

A) Responsabilidad civil objetiva reforzada

Casos en que plataforma responde:

  1. Exposición algorítmica a contenido prohibido:
    • Aunque contenido haya sido subido por tercero
    • Aunque plataforma no “conociera” específicamente ese contenido
    • Basta probar: (a) menor se expuso, (b) algoritmo lo recomendó, (c) daño sufrido
  2. Falla en protecciones obligatorias:
    • No verificó edad pudiendo hacerlo
    • No aplicó filtros adecuados
    • Diseño adictivo causó problema de salud mental
  3. Facilitación de victimización:
    • Menor contactado por depredador pese a configuraciones supuestamente restrictivas
    • Algoritmo conectó menor con comunidades nocivas (pro-anorexia, autolesión, etc.)

Quantum indemnizatorio mínimo:

  • Daño psicológico leve: 50 SMLV
  • Daño psicológico moderado: 100-300 SMLV
  • Daño psicológico grave (requiere tratamiento prolongado): 300-1,000 SMLV
  • Daño con secuelas permanentes o victimización sexual facilitada digitalmente: 1,000-5,000 SMLV

Agravantes (aumentan indemnización 200-300%):

  • Reincidencia de la plataforma
  • Negativa a cooperar con investigación
  • Ocultamiento de información
  • Eliminación de evidencia

Legitimación amplia:

  • Menor directamente afectado (representado por padres/ICBF)
  • Defensoría del Pueblo
  • Acciones de grupo: Afectados colectivamente
  • Acción popular: Cualquier ciudadano por derechos colectivos de la infancia

Prescripción extendida: 10 años desde que menor cumple 18 años (reconoce que daños se manifiestan con el tiempo)

B) Sanciones administrativas graduales pero contundentes

Escala de sanciones:

Infracciones leves (primera vez, subsanables rápidamente):

  • Amonestación pública
  • Desde: 1.000 – 5.000 SMLV
  • Orden de corrección en 30 días

Ejemplos: Retraso en actualizar registro de algoritmo, fallas menores en reporte de transparencia

Infracciones graves (afectan menores pero sin daño masivo/sistemático):

  • Desde: 5.000 – 50.000 SMLV
  • Orden de corrección inmediata (48-72 horas)
  • Publicación de la sanción en la propia plataforma (visible para usuarios)
  • Suspensión parcial de funciones riesgosas hasta corrección

Ejemplos: Falla de filtros que expuso a 100 menores a contenido sexual, no implementar protocolo de exposición accidental, controles parentales defectuosos

Infracciones muy graves (daño masivo, sistemático o reincidente):

  • Multa: 50,000 – 100,000 SMLV O 6% de ingresos anuales globales (lo que sea mayor)
  • Suspensión temporal de operaciones en Colombia (1-6 meses)
  • Inhabilitación de directivos
  • Orden de rediseño completo del algoritmo con supervisión externa

Ejemplos: Exposición masiva y reiterada pese a advertencias, negativa a acatar órdenes de Superintendencia, diseño deliberadamente adictivo pese a prohibición

Infracciones gravísimas (conductas dolosas, facilitación de delitos contra menores):

  • Multa: Hasta 10% de ingresos anuales globales
  • Bloqueo permanente en Colombia (como último recurso)
  • Responsabilidad penal de directivos (si hay dolo)
  • Decomiso de utilidades derivadas de la infracción

Ejemplos: Monetización deliberada de contenido de abuso infantil, facilitación consciente de redes de explotación, ocultamiento sistemático de evidencia de daños

Destino de multas: 100% al Fondo de Reparación y Educación Digital Infantil

C) Imposibilidad de eludir jurisdicción colombiana

Problema actual: Plataformas argumentan “no tenemos oficinas en Colombia, no aplica ley colombiana”

Solución normativa:

Criterios de sujeción a jurisdicción:

  • Opera en español
  • Tiene usuarios colombianos
  • Obtiene ingresos de Colombia (publicidad a colombianos)
  • Contenido accesible desde Colombia

Si cumple cualquiera → sujeta a regulación colombiana

Mecanismos de efectividad:

  1. Bloqueo de servicios de pago:
    • Ordenar a bancos/pasarelas de pago interrumpir transacciones
    • Impedir que empresa cobre en Colombia
  2. Bloqueo de publicidad:
    • Ordenar a anunciantes colombianos cesar publicidad en plataforma incumplidora
    • Empresas colombianas que publiciten en plataforma sancionada también enfrentan multas
  3. Bloqueo de dominio (último recurso):
    • Ordenar a ISPs bloquear acceso
    • Solo en casos extremos (plataforma se niega absolutamente a cumplir y facilita daño grave)
    • Con proceso judicial previo
  4. Cooperación internacional:
    • Solicitar a país de origen ejecución de sanciones colombianas
    • Reciprocidad: Colombia ejecuta sanciones de otros países

COMPONENTE 2: FAMILIA COMO CO-PROTECTOR (No como único responsable)

Línea 2.1: Herramientas y Capacitación para Familias

Reconocimiento explícito: Familias quieren proteger pero enfrentan limitaciones materiales y técnicas. El Estado y las plataformas deben facilitar, no solo exigir.

A) Programa Nacional “Familia Digital Protectora”

Objetivo: Que 2 millones de familias colombianas adquieran capacidades de acompañamiento digital (no solo control punitivo)

Modalidades de formación:

  1. Presencial comunitaria (1,000 puntos en todo el país):
    • Casas de la cultura, salones comunales, colegios
    • Talleres de 4 horas cada 15 días (8 sesiones = 32 horas totales)
    • Horarios flexibles (nocturnos, fines de semana) para padres trabajadores
    • Cuidado de niños durante taller (guardería gratuita)
    • Certificación al finalizar
  2. Autodirigido virtual:
    • Plataforma con videos, lecturas, ejercicios prácticos
    • Acceso desde cualquier dispositivo
    • Consumo de datos subsidiado (acuerdo con operadores de telefonía)
    • Línea de ayuda por WhatsApp para dudas
  3. Grupos de apoyo entre pares:
    • Encuentros mensuales de padres para compartir experiencias
    • Facilitados por psicólogos especializados
    • Espacio de contención emocional (muchos padres sienten culpa/frustración)

Contenidos del programa:

Módulo 1 – Entender el mundo digital de mis hijos (4 horas):

  • ¿Qué son las redes sociales que usan? (TikTok, Instagram, etc.)
  • ¿Cómo funcionan los algoritmos? (explicación sencilla)
  • ¿Qué hacen realmente los niños online? (no solo lo que creen los padres)
  • Ejercicio: Crear cuenta en TikTok y explorar durante 1 hora (vivir la experiencia)

Módulo 2 – Riesgos reales (sin catastrofismo) (4 horas):

  • Contenido sexual/violento: cómo hablar sin tabú
  • Grooming y ciberacoso: señales de alerta
  • Adicción digital: cómo identificarla
  • Desinformación y manipulación
  • Importante: Balance entre alertar y no generar pánico

Módulo 3 – Comunicación efectiva (8 horas – el más importante):

  • Por qué prohibir sin explicar no funciona (evidencia científica)
  • Cómo tener conversaciones sobre tecnología sin generar conflicto
  • Escucha activa: entender perspectiva del hijo
  • Negociación de límites razonables (no imposiciones unilaterales)
  • Qué hacer si hijo se expuso a contenido nocivo (respuesta de apoyo, no castigo)
  • Construcción de confianza: “puedes contarme si algo te incomoda online”
  • Rol modeling: Padres deben dar ejemplo (no hipocresía de “tú no uses pero yo sí”)

Módulo 4 – Herramientas prácticas (4 horas):

  • Cómo configurar controles parentales (práctica con dispositivos reales)
  • Apps recomendadas de supervisión (gratuitas)
  • Cómo revisar actividad online (sin invadir privacidad completamente)
  • Límites técnicos: qué pueden y no pueden hacer los controles

Módulo 5 – Acompañamiento positivo (4 horas):

  • Uso creativo y educativo de tecnología
  • Cómo buscar juntos contenido de calidad
  • Actividades offline para balancear
  • Rutinas familiares saludables (comidas sin pantallas, espacios de conversación)

Módulo 6 – Autocuidado parental (4 horas):

  • Manejo de la ansiedad/culpa que genera la crianza digital
  • Aceptar que no pueden controlar todo (y está bien)
  • Cuándo pedir ayuda profesional
  • Red de apoyo: no están solos

Módulo 7 – Autonomía progresiva (2 horas):

  • Cómo dar más libertad digital gradualmente según madurez
  • Preparar para adolescencia (12-17 años necesitan más autonomía)
  • Transición a autorregulación

Módulo 8 – Recursos y rutas de atención (2 horas):

  • ¿A quién acudir si hijo es victimizado online?
  • Líneas de denuncia (Fiscalía, Policía, Te Protejo)
  • Apoyo psicológico gratuito disponible
  • Asesoría jurídica si necesitan demandar plataforma

Incentivos para participación:

  • Bono familiar de $200,000 al completar el programa (certificación)
  • Dispositivos de control parental gratuitos (router con filtros, app de supervisión premium)
  • Prioridad en cupos escolares públicos de calidad (como incentivo adicional)
  • Descuentos en servicios de internet/telefonía (20% por 1 año para familias certificadas)

Objetivos:

  • Año 1: 500,000 familias capacitadas
  • Año 2: 1 millón adicional
  • Año 3: 500,000 adicionales
  • Total: 2 millones de familias en 3 años (40% de familias con menores)

Presupuesto: $150,000 millones anuales

  • Financiación: 50% Estado, 30% plataformas digitales (obligación legal), 20% cooperación internacional

B) Controles parentales accesibles y efectivos (provistos por plataformas obligatoriamente)

Obligación de plataformas: Proveer GRATIS herramientas robustas de control parental

Características mínimas obligatorias:

  1. Facilidad de uso:
    • Instalación en máximo 3 pasos
    • Interfaz en español sencillo
    • Video tutorial incluido
    • Soporte técnico gratuito 24/7
  2. Características:
    • Ver actividad del menor (contenido visto, búsquedas, interacciones)
    • Establecer límites de tiempo (por día, por app)
    • Pausar cuenta remotamente
    • Filtros de contenido configurables (nivel bajo/medio/alto)
    • Alertas automáticas ante:
      • Búsquedas de riesgo (“cómo suicidarse”, pornografía, drogas)
      • Contacto con desconocidos
      • Uso en horarios inusuales (madrugada)
      • Cambios abruptos de comportamiento (aislamiento súbito, actividad frenética)
  3. Balance con privacidad del menor:
    • Para menores 14-17 años: controles menos intrusivos
    • Adolescente sabe que padres tienen acceso (transparencia)
    • Padres ven metadatos (tiempo, tipo de contenido) no necesariamente conversaciones privadas completas (salvo alertas de riesgo grave)
    • A partir de 16 años: opción de “modo privado” en ciertas actividades (preparando para autonomía adulta)
  4. Interoperabilidad:
    • Un solo dashboard para supervisar múltiples plataformas
    • No tener que instalar 15 apps diferentes
    • Estándar abierto que permita integración

Sanción por no proveer o proveer defectuosamente: Multa de $10,000 millones + orden de corrección

C) Línea Nacional de Orientación para Familias “Te Acompañamos Digital”

Servicio gratuito 24/7:

  • Llamada telefónica: 018000-DIGITAL
  • WhatsApp: Chatbot con derivación a humano si necesario
  • Chat en web: Anónimo si familia lo prefiere

Consultas a las que asistió:

“Creo que están haciendo bullying a mi hQuisque nec massa at nisi lacinia mollis. Suspendisse consectetur ex ligula. Phasellus quis risus sed mauris pharetra dignissim. Phasellus finibus purus sit amet tellus bibendum placerat. Phasellus commodo gravida quam, sed aliquet felis vehicula ut. Sed auctor blandit lacinia. Pellentesque habitant morbi tristique senectus et netus et malesuada fames ac turpis egestas.

“No sé cómo instalar control parental”

“Mi hija pasa 12 horas diarias en TikTok, ¿qué hago?”

“Mi hijo vio pornografía, ¿cómo hablo con él?”

“Reconocimiento explícito: Familias quieren proteger pero enfrentan limitaciones materiales y técnicas. El Estado y las plataformas deben facilitar, no solo exigir..”

BIBLIOGRAFÍA PARA POLÍTICA PÚBLICA “INFANCIA PROTEGIDA DIGITAL”

I. NORMATIVIDAD NACIONAL (4)

  1. Constitución Política de Colombia. (1991). Artículos 15, 44, 67. Bogotá: Legis.
  2. Congreso de la República de Colombia. (2006). Ley 1098 de 2006 – Código de Infancia y Adolescencia. Bogotá: Diario Oficial No. 46.446.
  3. Congreso de la República de Colombia. (2012). Ley 1581 de 2012 – Por la cual se dictan disposiciones generales para la protección de datos personales. Bogotá: Diario Oficial No. 48.587.
  4. Corte Constitucional de Colombia. Sentencia C-748 de 2011. M.P. Jorge Ignacio Pretelt Chaljub. Sobre protección reforzada de menores.

II. NORMATIVIDAD INTERNACIONAL (3)

  1. Organización de las Naciones Unidas. (1989). Convención sobre los Derechos del Niño. Ratificada por Colombia mediante Ley 12 de 1991.
  2. Comité de los Derechos del Niño de la ONU. (2021). Observación General No. 25 sobre los derechos de los niños en relación con el entorno digital. CRC/C/GC/25. Ginebra.
  3. Unión Europea. (2022). Reglamento (UE) 2022/2065 – Ley de Servicios Digitales (LSD). Diario Oficial de la Unión Europea.

III. DOCTRINA NACIONAL (2)

  1. Remolina Angarita, N. (2020). “Protección de datos personales de niños, niñas y adolescentes en Colombia: Retos y oportunidades.” Revista de Derecho Privado, Universidad Externado de Colombia, No. 39, pp. 45-78.
  2. Acosta López, J. I. (2022). “El interés superior del menor en el entorno digital: Análisis desde el derecho constitucional colombiano.” Revista de Derecho Público, Universidad de los Andes, No. 48, pp. 1-32.

IV. DOCTRINA INTERNACIONAL (5)

  1. Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs.
  2. O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown.
  3. Livingstone, S. y Third, A. (2017). “Los derechos de los niños y jóvenes en la era digital: una agenda emergente.” New Media & Society, vol. 19, n.º 5, págs. 657-670.
  4. Lupton, D. y Williamson, B. (2017). “El niño datificado: la vigilancia de datos sobre los niños y sus implicaciones para sus derechos.” New Media & Society, vol. 19, n.º 5, págs. 780-794.
  5. Orben, A. y Przybylski, A.K. (2019). “La asociación entre el bienestar adolescente y el uso de la tecnología digital.” Nature Human Behaviour, Vol. 3, págs. 173-182.

V. INFORMES Y ESTUDIOS (4)

  1. UNICEF. (2021). El estado mundial de la infancia 2021: En mi mente – Promover, proteger y cuidar la salud mental de la infancia. Nueva York: UNICEF.
  2. Red PaPaz. (2023). Estudio sobre exposición de menores colombianos a pornografía en línea. Bogotá: Red PaPaz.
  3. Instituto Nacional de Medicina Legal y Ciencias Forenses. (2023). Forensis 2023: Datos para la vida – Comportamiento del suicidio en Colombia. Bogotá: Medicina Legal.
  4. Ministerio de Salud y Protección Social. (2023). Boletín de Salud Mental: Consultas por salud mental en población infantil y adolescente 2019-2023. Bogotá.

VI. NEUROCIENCIA Y ÉTICA DIGITAL (2)

  1. Lembke, A. (2021). Dopamine Nation: Finding Balance in the Age of Indulgence. New York: Dutton.
  2. Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press.

El propósito de este artículo es generar una propuesta de Política Pública desde la investigación sobre un problema social que cada día es más fuerte.

Por: Ana Teresa Cardona con ayuda de la IA

Abogada y Administrora Pública en Formación

Palabras clave: protección de menores, derechos digitales, infancia y adolescencia, plataformas digitales, redes sociales, salud mental infantil, capitalismo de vigilancia, algoritmos, datos personales, privacidad digital, diseño apropiado para la edad, interés superior del niño, regulación digital, contenido nocivo, ciberseguridad infantil, adicción digital, neurociencia del desarrollo, decisiones automatizadas, responsabilidad de plataformas, Código de Infancia y Adolescencia, Ley 1581 de 2012, Observación General No. 25, Convención sobre los Derechos del Niño, Ley de Servicios Digitales, bienestar digital, explotación comercial infantil, grooming, ciberbullying, pornografía infantil, economía de la atención, modelos de negocio extractivos, inteligencia artificial, sistemas de recomendación, datificación de la infancia, vigilancia digital, derechos fundamentales, Colombia, políticas públicas digitales, protección de datos, consentimiento informado, autodeterminación informativa, tecnología y desarrollo infantil.

Share Article
Previous Article

¡Hola mundo!

Next Article

Cofres de Dignificación: Un Camino hacia la Restauración y la Verdad

VControlSocial

Related Posts

Cofres de Dignificación: Un Camino hacia la Restauración y la Ver ...
5 noviembre, 2025

Social Icons

Facebook1,000FanáticosMe gustaX (Twitter)1,000SeguidoresSeguirInstagram1,000SeguidoresSeguirPinterest1,000SeguidoresPinYoutube1,000SuscriptoresSuscribirseTiktok1,000SeguidoresSeguirTelegram1,000MiembrosUnirseSoundcloud1,000SeguidoresSeguirVimeo1,000SeguidoresSeguirDribbble1,000SeguidoresSeguir

Featured Posts

1
Cofres de Dignificación: Un Camino hacia la Restauración y la Verdad
5 noviembre, 2025
2
PROPUESTA DE POLÍTICA PÚBLICA: “INFANCIA PROTEGIDA DIGITAL”
9 octubre, 2025
3
The Policy Shift That Could Radically Change the Housing Crisis
9 enero, 2025
Lorem ipsum dolor sit amet, consectetur adipisicing elit. Minima incidunt voluptates nemo, dolor optio quia architecto quis delectus perspiciatis.

Nobis atque id hic neque possimus voluptatum voluptatibus tenetur, perspiciatis consequuntur.

Email: sample@gmail.com
Call Us: +987 95 95 64 82

Category List

  • Automobiles(2)
  • Business(3)
  • Control Social(2)
  • Derecho Digital(1)
  • Fashion(3)
  • Gadgets(2)
  • Health(2)
  • Manizales(1)
  • Politics(2)
  • Sin categoría(1)
  • Technology(3)

Featured Posts

1
Cofres de Dignificación: Un Camino hacia la Restauración y la Verdad
5 noviembre, 2025
2
PROPUESTA DE POLÍTICA PÚBLICA: “INFANCIA PROTEGIDA DIGITAL”
9 octubre, 2025
3
The Policy Shift That Could Radically Change the Housing Crisis
9 enero, 2025
Copyright © 2025 | Desarrollado por Revista de Noticias X