Ben même dans le cas de ces deux exemples, on reste avec :
1/ Une structure centralisée : répartir les données sur plusieurs serveurs distincts ne veut pas dire que la logique n'est pas centralisée. Ainsi, pour les pages jaunes, d'un serveur à l'autre, on retrouvera la même structure. Pour la SNCF, je suppose qu'en plus du load-balancing, le systèmes est découpé en plusieurs modèles qui se complètent.
2/ Des clients déportés : un même client sera capable de retrouver sur quel serveur les données sont, et ainsi le groupement de serveur peut être assimilé en un super-serveur.
En fait, ça me fait penser à une architecture simple, qu'on utilise tous les jours sans le savoir : les DNS.
Il existe des serveurs "root", qui, il me semble, stockent la liste de tous les noms de domaines par leur première lettre alpabétique. Il y a ainsi 26 serveurs, stockant chacun la liste des noms de domaine commençant par une lettre à la fois.
Ensuite, vu le nombre de requêtes, ces 26 serveurs ne sont pas suffisants. Il y a donc ensuite une floppée de serveurs qui permettent d'associer une requête à un nom de domaine inconnu à chacun de ces 26 serveurs. Pour les requêtes déjà exécutées, ils conservent une liste en cache, afin de ne plus avoir à soliciter les serveurs root à chaque requête.
Cette architecture en étoite se propage sur un très grand nombre de niveau. Ainsi, jusqu'au niveau du FAI, on retrouve une floppée de DNS, tous se basant sur leur propre cache, un DNS "maître" connaissant tous les alias du domaine du FAI, mais aussi des liens vers d'autres DNS afin de pouvoir forwarder une requête qu'ils ne savent pas résoudre.
Une entreprise possédera généralement elle aussi ses propres serveurs DNS, qui permettent de résoudre les noms de domaine du réseau de l'entreprise, mais aussi les requêtes sur les noms de domaine public.
C'est le meilleur exemple de load balancing qu'on puisse trouver, puisqu'il est accessible de tous, mais en plus se présente sous la forme de dizaines (centaines ?) de milliers de serveurs. Aucun serveur DNS au monde ne connait toutes les entrées DNS existantes, pour la simple et bonne raison que non seulement leur nombre est trop important, mais surtout qu'il y a trop de changements en permanance. Et pourtant, pour peut qu'une entrée ait plus de quelques heures (48 dans le pire des cas), en interrogeant n'importe quel serveur on est capable de retrouver la trace de n'importe quel nom de domaine.
Il s'agit donc d'une architecture client serveur à part entière, et malgré une notion de loadbalancing ne se basant pas sur la réplication, on est capable de retrouver n'importe quelle entrée en interrogeant n'importe quel serveur.
Le fonctionnement d'un serveur DNS est assez loin d'un serveur de SGBD mais... étant capable de faire une association nom - ip, cela fait cependant penser à un SGBD qui ne stockerait qu'une seule table à trois entrée : IP, NOM, TYPE. Pour moi, c'est donc parfaitement assimilable à un SGBD très spécialisé.
La cohérence du système est parfaite malgré un éclatement total des serveurs (et plus qu'un éclatement, chaque serveur peut être géré par une société différente, tout en gardant une cohérence parfaite des données).
Bref, tout ça pour dire que quelque soit la forme du load balancing (cluster, réplication, forwarding - cas du DNS -, etc.), il reste toujours assimilable à un unique serveur, du moins un système cohérent et unitaire.
Ca reste donc une architecture client/server.