Comment spécifier la table en mémoire du modèle de Deep Learning cible pour l'ajout d'une couche ?

Curation du Graph : Pilotage de la modelTable

Le modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). de Deep LearningSous-ensemble du Machine Learning basé sur des réseaux de neurones artificiels profonds. Il excelle dans l'extraction automatique de motifs complexes depuis des données brutes (images, texte, son). cible est désigné par le paramètre modelTable. Il attend une référence à une table en mémoireGemini said
Espace de stockage temporaire (RAM) utilisé par le moteur CAS pour charger et traiter les données à haute vitesse, minimisant les accès disque pour optimiser les performances de SAS Viya.
chargée dans CAS. Vous pouvez l'utiliser sous deux formes :

  • Forme longue : modelTable={name="nom-de-la-table"}
  • Forme raccourcie : modelTable="nom-de-la-table"

Des sous-paramètres additionnels permettent de gérer plus finement la table :

  • caslib : Spécifie la caslibEspace de stockage logique dans SAS Viya. Elle définit l’accès aux données (source physique) et leur chargement en mémoire (serveur CAS) pour permettre des analyses distribuées haute performance. (bibliothèque CAS) où se trouve la table. Par défaut, la caslibEspace de stockage logique dans SAS Viya. Elle définit l’accès aux données (source physique) et leur chargement en mémoire (serveur CAS) pour permettre des analyses distribuées haute performance. active est utilisée.
  • computedOnDemand : Si défini à TRUE, les variablesColonnes d'une table SAS contenant des données spécifiques (numériques ou caractères). Elles possèdent des attributs comme le nom, le type, la longueur, l'étiquette et le format d'affichage. calculées sont créées au chargement de la table plutôt qu'au début de l'action. Par défaut, FALSE.
  • computedVars : Liste de variablesColonnes d'une table SAS contenant des données spécifiques (numériques ou caractères). Elles possèdent des attributs comme le nom, le type, la longueur, l'étiquette et le format d'affichage. calculées à créer, avec des détails comme le format, la longueur, le label et le nom.
  • computedVarsProgram : Expression pour chaque variable calculée spécifiée dans computedVars.
  • dataSourceOptions : Options spécifiques à la source de données de la table.
  • importOptions : Paramètres de lecture de la table depuis une source de données (par exemple, fileType).
  • singlePass : Si TRUE, ne crée pas de table transitoire sur le serveur. Peut améliorer l'efficacité mais l'ordre des données peut être instable. Par défaut, FALSE.
  • vars : Spécifie les variablesColonnes d'une table SAS contenant des données spécifiques (numériques ou caractères). Elles possèdent des attributs comme le nom, le type, la longueur, l'étiquette et le format d'affichage. à utiliser dans l'action, avec des détails similaires à computedVars.
  • where : Une expression pour filtrer les données d'entrée.
  • whereTable : Spécifie une table de filtrage pour restreindre les lignes d'entrée.

Exemple de Code Additionnel

1<pre>PROC CAS;
2/* 1. Centralisation de la référence au modèle */
3attr_modele = {name="mon_architecture_v1", caslib="ModelStore"};
4/* 2. Ajout d'une couche en utilisant la variable */
5DEEPLEARN.addLayer /
6modelTable = attr_modele
7name = "dense_layer_top"
8layer = {type="FULLCONNECT", n=128, act="RELU"}
9srcLayers = {"pooling_layer_final"};
10/* 3. Vérification immédiate de la structure */
11DEEPLEARN.modelInfo /
12modelTable = attr_modele;
13QUIT;</pre>

Exemples pour l'action addLayer

1. Ajout de la couche d'entrée (INPUT)
Schéma conceptuel de l'exemple : 1. Ajout de la couche d'entrée (INPUT)

Cet exemple définit la couche INPUT (tenseurs RGB 3x32x32). Le paramètre scale (1/255) normalise les pixels dans [0,1], une étape critique pour stabiliser la descente de gradient.

2. Ajout d'une couche de convolution (CONVO)
Schéma conceptuel de l'exemple : 2. Ajout d'une couche de convolution (CONVO)

Cet exemple intègre une couche CONVO (16 filtres 3x3, stride=1). L'activation ReLU introduit la non-linéarité, et l'initialisation XAVIER préserve la variance des gradients.

Assemblage d'un réseau CNN de bout en bout
Schéma conceptuel de l'exemple : Assemblage d'un réseau CNN de bout en bout

Cet exemple finalise le CNN : Max Pooling (réduction spatiale), FC (dropout 0.2) et OUTPUT Softmax (entropie croisée).