Quels sont les paramètres obligatoires et principaux pour la définition d'une nouvelle couche via l'action addLayer ?

Architecture et Flux : Maîtriser addLayer

Les paramètres essentiels pour l'action addLayer sont :

  • layer : Ce paramètre, obligatoire, définit le type spécifique de la couche à ajouter (par exemple, BATCHNORM, CONVOLUTION, FULLCONNECT, INPUT, OUTPUT, POOLING, RECURRENT) ainsi que toutes ses configurations spécifiques (dimensions, fonctions d'activation, etc.).
  • modelTable : Ce paramètre, également obligatoire, identifie la table en mémoireGemini said
    Espace de stockage temporaire (RAM) utilisé par le moteur CAS pour charger et traiter les données à haute vitesse, minimisant les accès disque pour optimiser les performances de SAS Viya.
    qui contient le modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). de Deep LearningSous-ensemble du Machine Learning basé sur des réseaux de neurones artificiels profonds. Il excelle dans l'extraction automatique de motifs complexes depuis des données brutes (images, texte, son). existant auquel la nouvelle couche doit être ajoutée.
  • name : Un nom unique qui sera attribué à la nouvelle couche. Ce nom est crucial pour référencer cette couche ultérieurement, notamment pour spécifier les couches sources (via srcLayers) d'autres couches qui en dépendraient.

Exemple de Code Additionnel

1<pre>PROC CAS;
2DEEPLEARN.addLayer /
3modelTable={name="mon_cnn"}
4name="conv_layer_1"
5layer={type="CONVOLUTION", nFilters=32, width=3, height=3, stride=1, act="RELU"}
6srcLayers={"input_layer_0"}; /* Connexion à la couche précédente */
7DEEPLEARN.addLayer /
8modelTable={name="mon_cnn"}
9name="pool_layer_1"
10layer={type="POOLING", width=2, height=2, stride=2, pool="MAX"}
11srcLayers={"conv_layer_1"};
12QUIT;</pre>

Exemples pour l'action addLayer

1. Ajout de la couche d'entrée (INPUT)
Schéma conceptuel de l'exemple : 1. Ajout de la couche d'entrée (INPUT)

Cet exemple définit la couche INPUT (tenseurs RGB 3x32x32). Le paramètre scale (1/255) normalise les pixels dans [0,1], une étape critique pour stabiliser la descente de gradient.

2. Ajout d'une couche de convolution (CONVO)
Schéma conceptuel de l'exemple : 2. Ajout d'une couche de convolution (CONVO)

Cet exemple intègre une couche CONVO (16 filtres 3x3, stride=1). L'activation ReLU introduit la non-linéarité, et l'initialisation XAVIER préserve la variance des gradients.

Assemblage d'un réseau CNN de bout en bout
Schéma conceptuel de l'exemple : Assemblage d'un réseau CNN de bout en bout

Cet exemple finalise le CNN : Max Pooling (réduction spatiale), FC (dropout 0.2) et OUTPUT Softmax (entropie croisée).