Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
869 connectés 

  FORUM HardWare.fr
  Programmation
  Shell/Batch

  sed : remplacer valeurs batch sur 2 gigas de données

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

sed : remplacer valeurs batch sur 2 gigas de données

n°2269923
grosbin
OR die;
Posté le 18-11-2015 à 17:32:13  profilanswer
 

Bonjour, je dois remplacer sur un dump sql ( ou un csv ) 100.000 clés par 100.000 valeurs associées ( afin de transformer une base de 2gigas en relationnelle )

 

Jusque aujourd'hui la méthode la plus rapide que j'ai trouvée étant de générer un batch opérant chacun des remplacements par :
  sed -i "s/'clé1'/'valeur1'/gi" dump.sql;# ( sur /dev/shm/ bien entendu )

 

Cela tient le rythme de 500 remplacements par heure .. ce qui n'est pas assez .. et pourtant bien plus rapide qu'en faisant des updates via sql ..

 

Mes questions
- Est-il possible d'accélerer ce traitement ?
- Est-il possible de renseigner à sed ou autre utilitaire le tableau associatif ? Cela serait - il plus rapide ?
- Existerait-il un mode "sed" qui ne fonctionne pas par expressions régulières ( teste la présence de la chaine, remplace si rencontrée, else next ) ?

 

Je tente également en splittant le fichier de base en une centaine de morceaux, mais ne suis pas convaincu ..

 

Merci pour vos lumières  :jap:
Merci bcp, bcp, bcp


Message édité par grosbin le 18-11-2015 à 17:33:11

---------------
Photos Panoramiques Montagnes Haute Savoie
mood
Publicité
Posté le 18-11-2015 à 17:32:13  profilanswer
 

n°2269926
gilou
Modérateur
Modzilla
Posté le 18-11-2015 à 18:47:49  profilanswer
 

Il y a des suites significatives de blancs dans ton dump ou pas?
Bref, si j'ai une ligne de ton dump (si tant est qu'il y ait des lignes), est il possible de l'exploser en une liste de mots de manière relativement simple (split par exemple) sans perte de données?
 
Si oui, j'envisagerais en effet de passer par du perl et un tableau associatif.
L'idée de base serait de faire un tableau associatif, de tester si un mot est un mot clé en faisant un grep sur la liste des mots clés, et de remplacer le mot par sa valeur si c'est le cas. Mais pour faire cela, il faut arriver a lire le fichier mot a mot (et même ligne a ligne, pour être relativement efficace)
 
L'idée serait donc de  
1) faire un hash %h associant les clés aux valeurs
2) stocker dans un coin une liste @c des clés (obtenue en faisant keys %h ou déjà construite pour faire l'étape 1)
3) Découper le dump en ligne (si c'est possible), et le lire avec une tie (Tie::File), la structure la plus adapte aux très gros fichiers en Perl.
4) Lecture ligne a ligne donc, on, explose la ligne en une liste de mots
Pour chaque mot m on teste s'il est dans la liste des mots clés avec un grep (grep /^m$/, @c) si oui, on le remplace dans la liste par sa valeur $h{m}
Et écriture en sortie (fichier) de la liste de mots modifiée et refusionnée en une ligne  
 
Note: A l'étape 4, on peut aussi essayer de faire un remplacement de chaque mot m par $h{m} si $h{m} n'est pas vide, mais je crains que ce soit plus lent.
 
A+,


---------------
There's more than what can be linked! --    Iyashikei Anime Forever!    --  AngularJS c'est un framework d'engulé!  --
n°2269935
grosbin
OR die;
Posté le 19-11-2015 à 08:37:12  profilanswer
 

Bien j'ai également essayé en splittant le fichier pour chaque délimiteur .. en n parties .. en une nuit il n'est pas parvenu à finir de remplacer le premier fichier ( 20Mo ) .. Du coup j'ai pris une machine dispo avec un joli proc ( un xeon ) un boot disk usb linux .. 4go sur /dev/shm et c'est parti .. ( là il parvient à me faire plusieurs clés par minutes, selon les occurences, sur le fichier global, c'est la meilleure solution trouvée à ce jour, et me permettra de dire à mon supérieur : bad, bad, bad idea )

 

Bref .. 17396 sur 159448 .. plus de 10% en 2 jours, c'est déjà ça .. si seulement je pouvais utiliser les 16 cores du serveur de production ..


Message édité par grosbin le 19-11-2015 à 08:41:43
n°2269941
grosbin
OR die;
Posté le 19-11-2015 à 12:23:15  profilanswer
 

Bien bon du coup j'essaye en perl .. désolé pour ma syntaxe php like .. le truc est en cours .. ne sait pas lorsqu'il aura fini .. 99% proc .. 35% ram

Code :
  1. #!/usr/bin/perl
  2. use strict;
  3. use warnings;
  4. #apt-get install libphp-serialization-perl
  5. use PHP::Serialization;
  6. my $rep=read_file('dict.int');
  7. my $replace = PHP::Serialization::unserialize($rep);
  8. my $file = "m151105.sql";
  9. my $file2 = "m151105.sql.2";
  10. sub str_replace {
  11.   my ($from, $to, $string, $global) = @_;
  12.   my $l = length($from);
  13.   my $p = 0 ; # current position
  14.   while ( ($p = index($string, $from, $p)) >= 0 ) {
  15.     substr($string, $p, $l) = $to ;
  16.     $global and last ;
  17.   }
  18.   return $string ;
  19. }
  20. sub read_file {
  21.     my ($filename) = @_;
  22.     open my $in, '<:encoding(UTF-8)', $filename or die "Could not open '$filename' for reading $!";
  23.     local $/ = undef;
  24.     my $all = <$in>;
  25.     close $in;
  26.     return $all;
  27. }
  28. sub write_file {
  29.     my ($filename, $content) = @_;
  30.     open my $out, '>:encoding(UTF-8)', $filename or die "Could not open '$filename' for writing $!";;
  31.     print $out $content;
  32.     close $out;
  33.     return;
  34. }
  35. my $data = read_file($file);
  36. while( my( $k, $v ) = each $replace ){
  37.     print "$k: $v\n";
  38.     $data=str_replace($k,$v,$data);
  39.     #$data=~s/'$k'/'$v--'/g;#plante avec la clé : AC(+),Z19212(+),Z20919(-),Z22040(+) interprêtée comme une regex
  40. }
  41. $data=~s/--'/'/g;
  42. write_file($file2,$data);
 

Du coup, comment je ferais un str_replace($k,$v,$data); en perl ?


Message édité par grosbin le 19-11-2015 à 12:32:53

---------------
Photos Panoramiques Montagnes Haute Savoie
n°2269942
gilou
Modérateur
Modzilla
Posté le 19-11-2015 à 12:51:57  profilanswer
 

J'ai les idées plus claires ce matin.
Ton fichier est un dump de base de données, donc tu as une structure de lignes avec
- éventuellement une marque de début de ligne
- des champs séparés par des séparateurs de champ
- une marque de fin de ligne
Je suppose que tu as un nombre fixe de champs. Toutes les clés que tu veux remplacer sont dans le même champ (je suppose que non mais sinon, ça simplifierait)
 
Donc en perl
1) Tu crées un hash dont les clés sont les clés à remplacer et les valeurs les valeurs de remplacement (je suppose que tu as déjà ça quelque part en un ou deux fichiers, il y a juste a lire ça dans la structure appropriée)
Je note ce hash %h et je note @k la liste des clés (keys %h)
2) tu ouvres ton fichier avec Tie::Handle::CSV qui a l'avantage d'utiliser Tie::File, le standard pour manipuler les gros fichiers et Text::CSV_XS, qui est ce qu'il y a de plus rapide pour parser un CSV
my $csv_fh = Tie::Handle::CSV->new( file => 'mydump', header => 0 );
Il y a des options de cache qui permettront d'optimiser la vitesse de lecture d'une ligne, et d'autres options pour préciser les séparateurs
3) tu ouvres un fichier en sortie, de handle $fh_out
Et après c'est la boucle bien connue:
while (my $csv_line = <$csv_fh> ) {
....
}
 
dans laquelle on fait une boucle sur les champs on teste si un champ est un mot clé, et on fait la substitution si oui.
 
Bref schématiquement, ça ressemble à ceci:

Code :
  1. use strict;
  2. use warnings;
  3.  
  4. use Tie::Handle::CSV;
  5.  
  6. my %h = ('cle-1' => 'valeur1', ..., 'cle-n' => 'valeur-n');
  7. my @c = (keys %h);
  8.  
  9. my $csv_parser = Text::CSV_XS->new( { quote_char => undef } );
  10. my $csv_fh = Tie::Handle::CSV->new( file => 'dump.csv', header => 0 , csv_parser => $csv_parser);
  11. while (my $csv_line = <$csv_fh> ) {
  12.  foreach my $i (0..(@{$csv_line}-1)) {
  13.    # optimisable si @{$csv_line} ie le nombre de champs, est fixe
  14.    if (grep(/^$csv_line->[$i]$/, @c) > 0) {
  15.      $csv_line->[$i] = $h{$csv_line->[$i]};
  16.    }
  17.  }
  18.  # IRL ce sera 'print $fh_out $csv_line, "\n";' et le \n est a remplacer par ce qu'il faut en fin de ligne le cas échant
  19.  print $csv_line, "\n";
  20. }


 
A+,
 
 


---------------
There's more than what can be linked! --    Iyashikei Anime Forever!    --  AngularJS c'est un framework d'engulé!  --
n°2269943
gilou
Modérateur
Modzilla
Posté le 19-11-2015 à 12:57:41  profilanswer
 

Nos posts se sont croisés.
 
> plante avec la clé : AC(+),Z19212(+),Z20919(-),Z22040(+) interprêtée comme une regex
faut faire un quotemeta dessus avant.
ou bien faire (c'est plus rapide en execution a priori)
#$data=~s/'\Q$k\E'/'$v--'/g;
 
Bon, si tu as des clés comme ceci, ce que je t'ai filé ne marchera pas directement. c'est quoi ton séparateur de champs? faudra le passer en option a Text::CSV_XS->new
et il faudra tenir compte de ce que je viens de taper:
my $key = quotemeta($csv_line->[$i]);
if (grep(/^$key$/, @c) > 0)
mais faire un quotemeta systématiquement ça risque de rajouter du temps
Dans ce cas la, plutôt que tester avec un grep, il sera sans doute mieux de faire
my @c = map {quotemeta} (keys %h);
my $regexp = '^('.join('|', @c).')$';
et de tester avec if ($csv_line->[$i] =~ /$regexp/o)
 
Bref schématiquement, ça ressemble à ceci:

Code :
  1. use strict;
  2. use warnings;
  3.  
  4. use Tie::Handle::CSV;
  5.  
  6. my %h = ('cle-1' => 'valeur1', ..., 'cle-n' => 'valeur-n');
  7. my @c = map {quotemeta} (keys %h);
  8. my $regexp = '('. join('|', @c) .')';
  9.  
  10. my $csv_parser = Text::CSV_XS->new( { quote_char => "'"} );
  11. my $csv_fh = Tie::Handle::CSV->new( file => 'dump.csv', header => 0 , csv_parser => $csv_parser);
  12. while (my $csv_line = <$csv_fh> ) {
  13.  foreach my $i (0..(@{$csv_line}-1)) {
  14.    # optimisable si @{$csv_line} ie le nombre de champs, est fixe
  15.    if ($csv_line->[$i] =~ /^$regexp$/o) {
  16.      $csv_line->[$i] = $h{$csv_line->[$i]};
  17.    }
  18.  }
  19.  # IRL ce sera 'print $fh_out $csv_line, "\n";' et le \n est a remplacer par ce qu'il faut en fin de ligne le cas échant
  20.  print $csv_line, "\n";
  21. }


 
 
A+,


Message édité par gilou le 19-11-2015 à 14:19:23

---------------
There's more than what can be linked! --    Iyashikei Anime Forever!    --  AngularJS c'est un framework d'engulé!  --
n°2269946
grosbin
OR die;
Posté le 19-11-2015 à 13:19:24  profilanswer
 

Merci bcp, désolé si j'ai répondu un peu à côté de la plaque, sur le dump sql les valeurs texte sont évidemment séparées par des quotes simples (')

 

Au final j'ai opté pour un file_get_contents php en mode cli sans limite de temps et de ram, cela passe à peu près 100 clés par minutes .. :)
A moins d'avoir un plantage ou panne de courant j'aurais le fichier final d'ici un jour ..


Message édité par grosbin le 19-11-2015 à 13:21:23

---------------
Photos Panoramiques Montagnes Haute Savoie
n°2270362
rufo
Pas me confondre avec Lycos!
Posté le 26-11-2015 à 11:43:09  profilanswer
 

Je suis quand même très surpris que faire une update sur une BD avec 100.000 enregistrements prenne énormément de temps (et soit plus lent que 500 remplacements à l'heure) :??:
Pour moi, ça sent la BD mal indexée et le fichier de conf de MySql non tuné. Perso, je serais parti soit sur une procédure stockée, soit sur un script php + Mysql tuné. Tu utilises innoDB ou MyISAM ? En effet, le temps du traitement, il pourrais être intéressant, pour gagner en perfs, de changer le moteur de stockage ou de charger la BD dans une autre BD avec un moteur différent. Si ton serveur le permet, le moteur MEMORY pourrait peut-être grandement améliorer les perfs.
 
J'ai pas toutes les infos en mains pour bien cerner le traitement que tu veux faire. As-tu envisager de déléguer le traitement à un outil de type NoSQL (beaucoup à base de clé/valeur justement). Si le passage des infos pertinentes pour le traitement de Mysql à une BD NoSQL n'est pas trop compliqué, tu gagnerais probablement beaucoup en temps d'exécution.
 
"Au final j'ai opté pour un file_get_contents php en mode cli sans limite de temps et de ram, cela passe à peu près 100 clés par minutes .."
-> Perso, je chargerais pas via PHP un fichier de 2 Go en ram. Je ferais plutôt une lecture séquentielle du fichier, petits bouts par petits bouts. L'alloc mémoire de PHP est très coûteuse en temps et augmente de manière exponentielle en fonction du volume à stocker en ram.
 
Pour info, il m'arrive de faire du calcul matriciel via MySql sur des tables ayant 5 millions d'enregistrements. Ca me prend 30 min environ pour faire un produit de 2 matrices d'un peu plus de 2000x2000 ;) C'est pour ça que je pense que le traitement reste sans doute jouable via Mysql.


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2270363
grosbin
OR die;
Posté le 26-11-2015 à 12:15:17  profilanswer
 

Effectivement, moi aussi cela m'a surpris ..

 

De toutes façons, au lieu d'y passer 3 jours de plus à étudier d'autres procédés, mon responsable a préféré valider cette version qui traite le fichier sql complet .. voilà qui est fait

 

Autrement, remplacer les valeurs une par une par des instructions sql .. n'était vraiment pas fructueux en terme de performances, même avec le repertoire data de mysql placé sur /dev/shm avec une belle allocation de 8go de ram .. je n'ai pas essayé le moteur de stockage "memory", car je n'ai vu nulle part par le passé de réels gains par l'usage de ce dernier ..

 

Peut être ai-je loupé un truc, quasiment toutes les colonnes sont indexées .. le script php parvenait à remplacer environ 40 clés par minute .. sql :  une à deux ..
:jap:


Message édité par grosbin le 26-11-2015 à 12:24:25

---------------
Photos Panoramiques Montagnes Haute Savoie
n°2270366
rufo
Pas me confondre avec Lycos!
Posté le 26-11-2015 à 13:29:46  profilanswer
 

Indexer toutes les colonnes, c'est pas top, à mon avis :/ Je te parie que pour faire ton traitement, aucun index n'est utilisé (ou alors, un mauvais). T'as fait un EXPLAIN de ta requête pour voir quel(s) index était utilisé ? Au passage, j'avais constaté avec Mysql que dans certains cas, c'était plus performant de faire un index portant sur 2 champs (ou plus suivant le traitement) plutôt que de faire un index pour chacun des 2 champs. ;)
 
"le script php parvenait à remplacer environ 40 clés par minute .. sql :  une à deux .." -> C'est clair, Mysql n'utilise pas d'index et scanne toute ta table. Trouve les bons index à mettre en place et tu verras, ça va le faire et aller bien plus vite que par du Perl ou php pur. :o
 
Edit : et tune le fichier de conf de Mysql. Bien fait, ça peut t'apporter de gros gains. POur une requête bien précise, modifier qq variables de conf de Mysql m'avait fait diviser par 2 à 3 le temps de traitement.


Message édité par rufo le 26-11-2015 à 13:31:53

---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Programmation
  Shell/Batch

  sed : remplacer valeurs batch sur 2 gigas de données

 

Sujets relatifs
[SQL] Select un nbre max de données = selectionner une ligne sur n.Recherche de données excel sur 2 tableaux à la fois
remplacer des mots par des liens (XML to HTML via XSLT)[VB6] Remplacer l'ensemble des contenus des nodes par des CDATA
Macro rechercher remplacer liens hypertexte EXCEL 2010[SQL] [facile] selection des données de plus de 256 lignes.
je ne parviens pas à remplire ma base de donnéesFichier crypté de donnees sécurisées
[VBA] Liste avec données dans une autre feuilleremplacer une ligne dans un fichier
Plus de sujets relatifs à : sed : remplacer valeurs batch sur 2 gigas de données


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR