Je dispose d'une appli client/serveur en java, qui utilise les sockets pr les connexions. Jusque là tt va bien, la communication se fait bien.
Par contre en cas de déconnexion du client, par exemple si on enlève le cable réseau, le serveur met plus de 10 minutes à remarquer que le client s'est déconnecté.
Comment régler le timeout de la déconnexion, ds les options des sockets ya que le timeout de la lecture (read) qui peut être paramètrer. J'ai pensé à un mécanisme de ping-pong, ms seulement en dernier recours.
Merci d'avance.
Message édité par electricblue le 30-03-2004 à 22:02:56