Productos y servicios

Deep Learning Toolbox Verification Library

Garantice la solidez y fiabilidad de redes neuronales profundas

A medida que se integran redes neuronales profundas a sistemas de ingeniería, especialmente en aplicaciones críticas para la seguridad, resulta fundamental garantizar la fiabilidad y solidez. Deep Learning Toolbox Verification Library permite evaluar y probar rigurosamente redes neuronales profundas.

Con Deep Learning Toolbox Verification Library, puede:

  • Verificar las propiedades de una red neuronal profunda, como la solidez ante ejemplos antagónicos
  • Calcular cuán sensibles son las predicciones de una red ante perturbaciones de entrada
  • Crear un discriminador de distribución que separe los datos dentro y fuera de distribución para supervisión en tiempo de ejecución
  • Desplegar un sistema de supervisión en tiempo de ejecución que controle el rendimiento de la red
  • Examinar un caso práctico para verificar un sistema de Deep Learning para aviación
Equipo local que utiliza computación cuántica con MATLAB.

Verifique la solidez de una red neuronal profunda para tareas de clasificación

Aumente la solidez de una red empleado métodos formales y ejemplos antagónicos (entradas alteradas sutilmente, diseñadas para engañar a la red). Este enfoque permite probar un conjunto infinito de entradas, demostrar la uniformidad de las predicciones a pesar de las perturbaciones, mejorar el entrenamiento, y aumentar la fiabilidad y precisión de la red.

Estime los límites de salida de una red neuronal profunda para tareas de regresión

Estime los límites de salida inferiores y superiores de una red a partir de los rangos de entrada empleando métodos formales. Este proceso permite sacar conclusiones sobre las posibles salidas de la red ante determinadas perturbaciones de entrada, lo que garantiza un rendimiento fiable en sistemas de control, procesamiento de señales y otros escenarios.

Desarrolle sistemas de Deep Learning seguros con supervisión en tiempo de ejecución

Incorpore supervisión en tiempo de ejecución con detección de datos fuera de distribución para desarrollar sistemas de Deep Learning seguros. Evaluar continuamente si los datos de entrada se ajustan a los datos de entrenamiento puede ayudar a decidir si confiar en la salida de la red o redirigirla para gestionarla de manera segura, lo que mejora la seguridad y fiabilidad del sistema.

Caso práctico: Verificación de un sistema de Deep Learning para aviación

Explore un caso práctico para verificar un sistema de Deep Learning que se ajusta a estándares del sector de la aviación, tales como DO-178C y ARP4754A, y a futuras pautas de la EASA y la FAA. Este caso práctico ofrece una perspectiva global de los pasos necesarios para cumplir plenamente con los estándares y pautas del sector en sistemas de Deep Learning.