DS2 – Package DS2 et SQLSTMT
Le code ci-dessous permet de créer un package DS2 personnalisé utilsant le package SQLSTMT. Un package DS2 est un ensemble de méthodes et de variables utilisables dans les programmes DS2. Un package DS2 prend...
Le code ci-dessous permet de créer un package DS2 personnalisé utilsant le package SQLSTMT. Un package DS2 est un ensemble de méthodes et de variables utilisables dans les programmes DS2. Un package DS2 prend...
Utilisez la syntaxe suivante pour répertorier les fichiers du package déjà installé :
1 |
rpm -ql openldap-clients-2.4.23-0.3 |
Utilisez la syntaxe suivante pour répertorier les fichiers du package RPM:
1 |
rpm -qlp openldap-clients-2.4.23-0.3.aix5.1.ppc.rpm |
Pour lister l’ensemble des fichiers accessibles dans une CAS LIB et qu’il est possible de charger en mémoire, il est possible d’utiliser le code ci-dessous :
1 2 3 |
proc casutil incaslib="nhdnfs" outcaslib="nhdnfs"; list files; quit; |
/opt/sas/viya/home/bin/sas-bootstrap-config –output json catalog service NOM_DU_SERVICE Exemple :
1 2 3 |
source /opt/sas/viya/config/consul.conf export CONSUL_TOKEN=$(cat /opt/sas/viya/config/etc/SASSecurityCertificateFramework/tokens/consul/default/management.token) /opt/sas/viya/home/bin/sas-bootstrap-config --output json catalog service casproxy |
Extraire toute la configuration :
1 2 3 |
source /opt/sas/viya/config/consul.conf export CONSUL_TOKEN=$(cat /opt/sas/viya/config/etc/SASSecurityCertificateFramework/tokens/consul/default/management.token) /opt/sas/viya/home/bin/sas-bootstrap-config kv read --recurse config |
L’instruction TABLEINFO est utilisée pour renvoyer des informations sur une table en mémoire. Ces informations incluent le nom de la table, les label, le nombre de lignes et de colonnes, le propriétaire, l’encoding et...
1 2 3 4 5 |
proc sql; connect to hadoop(server='MON_SERVEUR' user='nicolas' password='monpasswordhive'); execute(create table persons(nom string)) by hadoop; execute(insert into persons values ('nicolas housset')) by hadoop; quit; |
La table est bien créée : Au passage, notez la longueur du champ « nom » ( type string dans hadoop), 32767. Pour comprendre cette longueur et le pourquoi du comment, je vous invite à lire...
Un répertoire HDFS contient deux fichiers csv de données : Il est possible de lire ces deux fichiers comme s’il s’agissait d’un seul fichier, avec l’option concat de l’instruction filename :
1 |
filename foo hadoop "/companyData/" concat; |
1 2 3 4 5 |
data _null_; infile foo truncover; input a $1024.; put a; run; |
Depuis SAS, il est possible de copier un fichier local dans HDFS en utilisant plusieurs méthodes. Toutefois, la plus efficace consiste à utilise la Proc Hadoop. En effet, La Proc HADOOP vous permet de soumettre...
Le code ci-dessous permet de lire un fichier csv sur Hadoop :
1 2 3 4 5 |
filename mydata hadoop "/companyData/data.csv"; data work.person; infile mydata dlm="|"; input id $ name $ company $ siret $; run; |
Ce qui donne : En exécutant ce code SAS, les données sont lues en parallèle à partir de HDFS, transmises à...
Pour trouver le rpm contenant le fichier de bibliothèque /opt/sas/viya/home/SASFoundation/sasexe/tktsqdb.so, utilisez la commande ci-dessous :
1 |
rpm -qf /opt/sas/viya/home/SASFoundation/sasexe/tktsqdb.so |
ce qui donne : sas-tktscore-03.13.01-20190227.110259987999.x86_64