D'accord je vois.
Donc ce que je ferais moi c'est ceci (S = Serveur Source, avec les tables à exporter, P = Serveur qui fait tourner ton processus de statistiques).
- Cron sur S, tu mets le "mysqldump" qui te sort les tables que t'as besoin dans un fichier SQL dans un répertoire bien précis.
- Sur P, tu faits un montage réseau (via NFS, CIFS ou SSHFS, avec une nette préférence pour ce dernier) du répertoire de S dans lequel viennent les dumps.
- Cron sur P, quand tu veux, tu purges les tables à importer, ensuite tu charges le dump SQL qui se trouve dans ton montage réseau via la le bash ..
C'est bête et méchant.. Le seul truc c'est que là t'as aucune manière de t'assurer que :
- Les données que tu load sur P n'ont pas été modifiées/compromises, que ce soit sur S ou par une attaque style man-in-the-middle (même si c'est dûr avec SSHFS)
- Que les données que tu charges ne sont pas déjà complètement obsolètes car entre temps de gros insert/delete/update ont été balancés sur S.
Il y a toujours la possibilité d’agrafer les 2 bases ensembles par contre là ton réseau risque de prendre cher (et à mon avis les perf vont être nulles)
---------------
Si la vérité est découverte par quelqu'un d'autre,elle perd toujours un peu d'attrait