En la actualidad, el uso de imágenes compartidas en distintas plataformas y aplicaciones se ha vuelto una práctica común. Sin embargo, existe una preocupación creciente por la presencia de contenido inapropiado, como imágenes con connotaciones de adulto, racismo o violencia. Para abordar esta problemática, hemos implementado una funcionalidad de bloqueo automático de imágenes inapropiadas en la plataforma Botmaker. Junto con la tecnología de Google Cloud Vision, podemos analizar el contenido de las imágenes enviadas por los usuarios en tiempo real y determinar si poseen contenido inadecuado, asegurando un ambiente seguro.
¿En qué consiste la funcionalidad?
La funcionalidad consiste en el bloqueo automático de imagenes inapropiadas enviadas por el usuario. Las características son las siguientes:
¿Cómo se configura en la plataforma?
En Menú>Configuración>Seguridad (https://go.botmaker.com/#/configuration/security), puedes habilitar o deshabilitar la funcionalidad deslizando la barra a la posición On.
Cada imagen recibida y analizada tiene un costo que se detalla en la sección de Acciones premium.
Las imágenes bloqueadas pueden verse en la pantalla de chats en cualquier conversación, siempre y cuando tengas la funcionalidad activada desde la sección de configuración.
Nota : Recuerda que, si deseas visualizar la imagen aunque hayas recibido la notificación de contenido inapropiado, puedes hacerlo _ cliqueando directamente sobre ella _.
Implementa la funcionalidad de bloqueo automático de imágenes inapropiadas para brindar a tus clientes un ambiente seguro y libre de contenido ofensivo, promoviendo una experiencia positiva y sin riesgos.
Recuerda visitar nuestro Centro de Ayuda para mayor información
Escrito por: Equipo Botmaker
Actualizado: 09/02/2024