Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1434 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  211  212  213  214  215  216
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1494041
the_fireba​ll
I have fucking failed
Posté le 28-08-2024 à 21:08:54  profilanswer
 

Reprise du message précédent :

speedboyz30 a écrit :

Ok :jap:
 
Bon sinon, je trouve ça très chiant de ne pas pouvoir mapper (facilement) de SMB / NFS sur un container unprivileged :/
 
Le seul truc relativement facile c'est ça, mais c'est déjà relou : https://forum.proxmox.com/threads/t [...] es.101795/
 


 
Perso je monte le nfs sur l’hôte Proxmox et je le bind mount dans mon LXC qui fait tourner Docker qui le bind mount dans les containers  :o  
 
Pour les permissions, je dois utiliser 100000 pour root dans le lxc et j’utilise les acl nfsv4
 
Un peu pénible mais une fois compris et avec un petit script, ça roule bien


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
mood
Publicité
Posté le 28-08-2024 à 21:08:54  profilanswer
 

n°1494066
ganfoud
Talk to me Goose
Posté le 31-08-2024 à 15:19:45  profilanswer
 

Bonjour à tous
ça fait deux nuits de suite que mon serveur proxmox s'éteint au moment/juste après les backups et je ne comprends pas pourquoi
voici les logs de cette nuit : https://pastebin.com/SS3inGSJ
et ceux de la nuit dernière: https://pastebin.com/RDhct8Z2

 

une idée de ce qu'il se passe?

Message cité 1 fois
Message édité par ganfoud le 31-08-2024 à 22:47:15
n°1494072
Iryngael
Awesome, ain't it ?
Posté le 31-08-2024 à 21:29:17  profilanswer
 

J ai pas tput lu par contre enleve ton mail gmail des  logs ;)


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1494074
ganfoud
Talk to me Goose
Posté le 31-08-2024 à 22:45:40  profilanswer
 

ah ok merci!

n°1494083
Phenix21
Posté le 01-09-2024 à 14:01:50  profilanswer
 

:hello:  
 
Alerte noob  :o  
 
J'ai installé proxmox sur un nuc pour y faire tourner ma domotique + divers utilitaires (type adguard), partant du principe que c'était plus simple à sauvegarder et plus efficace que ma solution précédente avec docker sur le syno.
Sur le nuc il y a donc 2 MV (HAOS + 1 debian), et 5 containers (adguard, emby, ...). Un dossier partagé du synology est monté dessus en NFS pour y héberger les sauvegardes.  
Lorsque je lance les sauvegardes, mes 2 VM se font correctement, je vois les archives sur le NAS (la dernière de ce matin) avec un log OK. Par contre, les sauvegardes des LXC sont en échec avec le message suivant :  

Code :
  1. 2024-09-01 01:09:00 INFO: Starting Backup of VM 102 (lxc)
  2. 2024-09-01 01:09:00 INFO: status = running
  3. 2024-09-01 01:09:00 INFO: CT Name: adguard
  4. 2024-09-01 01:09:00 INFO: including mount point rootfs ('/') in backup
  5. 2024-09-01 01:09:00 INFO: backup mode: snapshot
  6. 2024-09-01 01:09:00 INFO: ionice priority: 7
  7. 2024-09-01 01:09:00 INFO: create storage snapshot 'vzdump'
  8. 2024-09-01 01:09:01 INFO: creating vzdump archive '/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tar.zst'
  9. 2024-09-01 01:09:01 INFO: tar: /mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tmp: Cannot open: Permission denied
  10. 2024-09-01 01:09:01 INFO: tar: Error is not recoverable: exiting now
  11. 2024-09-01 01:09:01 INFO: cleanup temporary 'vzdump' snapshot
  12. 2024-09-01 01:09:01 ERROR: Backup of VM 102 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tmp' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/mnt/vzsnap0' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' ./ | zstd '--threads=1' >/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tar.dat' failed: exit code 2


Le lancement de la même sauvegarde sur le disque local de proxmox fonctionne par contre.
Qu'est ce qui foire ? une histoire de droits ?  
Est ce qu'il peut y avoir un lien avec le fait que je galère à monter le dossier partagé "photos" de mon nas sur un container photoprism ?  
 
Merci de votre lecture et votre patience pour un débutant ;)

n°1494085
Joeman79
RAID is not backup
Posté le 01-09-2024 à 17:37:05  profilanswer
 

Je pense que tu es tombé sur le même souci que moi qui a failli me rendre chèvre avant de finir par comprendre.
Laisse moi deviner: tes conteneurs lxc sont "unprivileged" ? Pour la science, tu peux vérifier qu'en les passant en "privileged" ça fonctionne?
L'utilisateur du lxc n'a tout simplement pas le droit d'écrire sur le share nfs.
 
Sur le moment, j'avais fini par générer les backups en local et un cron en root copiait sur le montage nfs mais il y a peut être plus propre comme façon de faire.

n°1494088
Phenix21
Posté le 01-09-2024 à 19:18:54  profilanswer
 

Joeman79 a écrit :

Je pense que tu es tombé sur le même souci que moi qui a failli me rendre chèvre avant de finir par comprendre.
Laisse moi deviner: tes conteneurs lxc sont "unprivileged" ? Pour la science, tu peux vérifier qu'en les passant en "privileged" ça fonctionne?
L'utilisateur du lxc n'a tout simplement pas le droit d'écrire sur le share nfs.
 
Sur le moment, j'avais fini par générer les backups en local et un cron en root copiait sur le montage nfs mais il y a peut être plus propre comme façon de faire.


 
'tain je suis un boulet
je venais de recréer les conteneurs en voulant les passer "privileged", sauf que je cochais la case "UNprivileged"... forcément ça marchait pas mieux.
suite à ton message, je vérifie, même joueur joue encore sauf que je coche la bonne case, et ça fonctionne !
 
merci  :jap:

n°1494093
Joeman79
RAID is not backup
Posté le 01-09-2024 à 20:33:22  profilanswer
 

Pas un boulet ..
Idéalement, les conteneurs devraient tous être en unprivileged sauf besoin spécifique d'être privileged.

n°1494095
NicCo
Posté le 01-09-2024 à 21:14:21  profilanswer
 

D'ailleurs puisqu'on est sur les LXC et que je n'ai jamais utilisé, ça "vit" comme une VM au niveau update ?


---------------
Topic de vente
n°1494096
Iryngael
Awesome, ain't it ?
Posté le 01-09-2024 à 23:41:37  profilanswer
 

Oui. Sauf si tu adoptes un fonctionnement à la Docker et que tu déploies toi meme tes templates maison en remplaçant le container


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
mood
Publicité
Posté le 01-09-2024 à 23:41:37  profilanswer
 

n°1494099
NicCo
Posté le 02-09-2024 à 07:26:29  profilanswer
 

Merci pour l'info ;)


---------------
Topic de vente
n°1494100
ilium
Candeur et décadence
Posté le 02-09-2024 à 08:53:00  profilanswer
 

ganfoud a écrit :

Bonjour à tous
ça fait deux nuits de suite que mon serveur proxmox s'éteint au moment/juste après les backups et je ne comprends pas pourquoi
voici les logs de cette nuit : https://pastebin.com/SS3inGSJ
et ceux de la nuit dernière: https://pastebin.com/RDhct8Z2
 
une idée de ce qu'il se passe?


 
Ca a rebooté cette nuit?
 
Tu n'as pas un cron qui pourrait faire cela?
Sinon, problème hardware genre surchauffe? Faudrait vérifier les logs/erreurs du BIOS si tu as.
J'ai aussi déjà eu un problème d'onduleur fatigué qui plantait aléatoirement.
Sinon, augmenter la verbosité des logs pour tenter de voir qui déclenche cet arrêt.
Enfin, ajouter un monitoring qui permettrait d'avoir l'état de divers éléments au moment du reboot.
 

n°1494102
ganfoud
Talk to me Goose
Posté le 02-09-2024 à 09:54:06  profilanswer
 

Joeman79 a écrit :

Je pense que tu es tombé sur le même souci que moi qui a failli me rendre chèvre avant de finir par comprendre.
Laisse moi deviner: tes conteneurs lxc sont "unprivileged" ? Pour la science, tu peux vérifier qu'en les passant en "privileged" ça fonctionne?
L'utilisateur du lxc n'a tout simplement pas le droit d'écrire sur le share nfs.
 
Sur le moment, j'avais fini par générer les backups en local et un cron en root copiait sur le montage nfs mais il y a peut être plus propre comme façon de faire.


le répertoire est sur un synology? chez moi ça marche en choisissant "Map all users to admin" dans les options nfs du dossier

ilium a écrit :


 
Ca a rebooté cette nuit?
 
Tu n'as pas un cron qui pourrait faire cela?
Sinon, problème hardware genre surchauffe? Faudrait vérifier les logs/erreurs du BIOS si tu as.
J'ai aussi déjà eu un problème d'onduleur fatigué qui plantait aléatoirement.
Sinon, augmenter la verbosité des logs pour tenter de voir qui déclenche cet arrêt.
Enfin, ajouter un monitoring qui permettrait d'avoir l'état de divers éléments au moment du reboot.
 


pas la nuit dernière, mais cette nuit oui
la surchauffe me semble possible, peut être que les sauvegardes augmentent sensiblement l'activité et la température, et entrainent l'extinction dans les mêmes horaires?
pas de CRON, c'est vide
le serveur est branché sur un onduleur, ça pourrait peut être l'expliquer, je vais tenter de virer l'onduleur

n°1494104
Iryngael
Awesome, ain't it ?
Posté le 02-09-2024 à 10:38:32  profilanswer
 

D'après tes logs le reboot est "graceful" (SIGTERM) donc y a quelque chose au niveau logiciel qui le déclenche. Si c'était lié à la température ce serait plutot un crash


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1494105
ganfoud
Talk to me Goose
Posté le 02-09-2024 à 10:50:37  profilanswer
 

j'aurais tendance à penser la même chose!

n°1494106
speedboyz3​0
Guide Michelin :o
Posté le 02-09-2024 à 11:17:24  profilanswer
 

D'ailleurs pour info, chatGPT c'est pas mal pour analyser des logs comme ça. Il t'explique clairement ce qui merde dans tes logs et t'aide à debug :D
 
(pas essayé dans ce cas, mais sur des soucis rencontrés précédemment :jap: )

n°1494107
ganfoud
Talk to me Goose
Posté le 02-09-2024 à 11:22:44  profilanswer
 

ah bonne idée!!

n°1494157
drpatch
Blacklist avec uBlock
Posté le 04-09-2024 à 23:55:07  profilanswer
 

Mon mini fanless était hyper chaud, CPU entre 50 et 75°
 
puis j'ai constaté que ça venait de la VM OPNsense (probablement depuis la dernière version majeure).
J'ai mis la solution ici
 
J'étais précédemment sur CPU "host" et je suis retourné sur CPU "qemu64" (+ flag aes on).
 
Retour à la normal entre 30 et 40°

n°1494279
jeffk
Fluent in shitposting
Posté le 12-09-2024 à 14:22:34  profilanswer
 

Jget pas quelque chose par rapport au LXC, quelque soit le nombre de coeurs que je met j'ai toujours dans la VM le nombre de coeurs de l'hôte.
 
Et si je change le port de SSH dans sshd_config ca prend pas effet.
 
C'est normal ? :o

n°1494292
speedboyz3​0
Guide Michelin :o
Posté le 13-09-2024 à 10:57:17  profilanswer
 

drpatch a écrit :

Mon mini fanless était hyper chaud, CPU entre 50 et 75°
 
puis j'ai constaté que ça venait de la VM OPNsense (probablement depuis la dernière version majeure).
J'ai mis la solution ici
 
J'étais précédemment sur CPU "host" et je suis retourné sur CPU "qemu64" (+ flag aes on).
 
Retour à la normal entre 30 et 40°


 
Moi j'ai mis un fan sur mon minifanless :o
Il est dans une armoire, osef j'entends rien / je ne vois rien :o

n°1494301
drpatch
Blacklist avec uBlock
Posté le 14-09-2024 à 00:03:55  profilanswer
 

#speedboyz30
Oui c'est pas défendu, le mien perso se maintient à 33° et au touché châssis même moins.
 
Mais sur un autre fanless chez un client qui possède un châssis plus petit et version 4 ports Ethernet et N100, j'ai préféré lui coller un 120mm en aspiration avec des attaches silicones, c'est presque inaudible.
 
Avant mon intervention il chauffait un peu beaucoup lui aussi, et en le démontant j'avais constaté que l'entretoise cuivre qui conduit la chaleur entre CPU/GPU et châssis, s'était déplacée de 2cm latéralement, elle était à cheval sur le renfoncement prévu à son maintient et donc plus parfaitement en contact de surfaces.
Et les vis de carte mère (sous les autocollants témoin de garantie) un peu laxistes.
 
A l'avenir si j'en fait d'autres, je les contrôlerai systématiquement.

n°1494326
speedboyz3​0
Guide Michelin :o
Posté le 15-09-2024 à 15:14:29  profilanswer
 

drpatch a écrit :

#speedboyz30
Oui c'est pas défendu, le mien perso se maintient à 33° et au touché châssis même moins.

 

Mais sur un autre fanless chez un client qui possède un châssis plus petit et version 4 ports Ethernet et N100, j'ai préféré lui coller un 120mm en aspiration avec des attaches silicones, c'est presque inaudible.

 

Avant mon intervention il chauffait un peu beaucoup lui aussi, et en le démontant j'avais constaté que l'entretoise cuivre qui conduit la chaleur entre CPU/GPU et châssis, s'était déplacée de 2cm latéralement, elle était à cheval sur le renfoncement prévu à son maintient et donc plus parfaitement en contact de surfaces.
Et les vis de carte mère (sous les autocollants témoin de garantie) un peu laxistes.

 

A l'avenir si j'en fait d'autres, je les contrôlerai systématiquement.

 

Link pour les attaches silicones ? Moi c'est posé un peu salement dessus.
Version n5105 4 ports ethernet.

 

Sinon update de mon serveur Proxmox:

 

VM:
pfsense
homeassistant
Pour tester : Opnsense / TrueNAS

 

LXC:
Pihole
Unifi controller
Docker
    Avec Portainer et : homarr / Jellyfin / Nextcloud / Openbooks / Prowlarr / Syncthing / Nginx :o

  

Message cité 1 fois
Message édité par speedboyz30 le 15-09-2024 à 19:14:21
n°1494327
NicCo
Posté le 15-09-2024 à 15:29:05  profilanswer
 

Tu as fait une VM Docker ou un LXC ?


---------------
Topic de vente
n°1494329
speedboyz3​0
Guide Michelin :o
Posté le 15-09-2024 à 19:14:38  profilanswer
 

NicCo a écrit :

Tu as fait une VM Docker ou un LXC ?


 
Updaté sorry :jap:

n°1494338
NicCo
Posté le 15-09-2024 à 22:43:57  profilanswer
 

speedboyz30 a écrit :


 
Updaté sorry :jap:


Pas de souci merci ;) ça fonctionne bien en LXC ? Pas de mauvaises perfs en réseau ?


---------------
Topic de vente
n°1494341
drpatch
Blacklist avec uBlock
Posté le 16-09-2024 à 04:02:42  profilanswer
 

speedboyz30 a écrit :

Link pour les attaches silicones ? Moi c'est posé un peu salement dessus.
Version n5105 4 ports ethernet.


Il m'en restait d'un package Noctua (je crois) et j'ai inséré ça dans les "lames" de reffroidissement.
http://i.imgur.com/pQfzXYp.jpg
 
Ici par exemple : https://www.amazon.fr/dp/B08G4TXQYJ
 
ou sur aliexpress, tu passes d'abord en language English et tu cherches : Silicone Fan Screws
beaucoup de choix.

n°1494490
yoda34
Chemical Worker
Posté le 23-09-2024 à 12:32:12  profilanswer
 

Phenix21 a écrit :

:hello:  
 
Alerte noob  :o  
 
Sur le nuc il y a donc 2 MV (HAOS + 1 debian), et 5 containers (adguard, emby, ...). Un dossier partagé du synology est monté dessus en NFS pour y héberger les sauvegardes.  
Lorsque je lance les sauvegardes, mes 2 VM se font correctement, je vois les archives sur le NAS (la dernière de ce matin) avec un log OK. Par contre, les sauvegardes des LXC sont en échec avec le message suivant :  
Merci de votre lecture et votre patience pour un débutant ;)


Je relance avec mon alerte gros n00b  :whistle:  
 
J’ai le même problème, impossible de monter en NFS mon dossier sur NAS Syno
 
Pourtant j’ai bien mis mon LXC en privilégié mais rien n’y fait, j’ai un message d’erreur quand je veux tester le montage (un truc du genre la version n’est pas bonne, j’ai plus la phrase exacte en tête)
 
Du coup j’imagine que c’est ma config de montage qui pue.  
 
Si t’as un tuto gronoob compliant je dis pas non  :sweat:  
Merci  :jap:

n°1494609
ganfoud
Talk to me Goose
Posté le 29-09-2024 à 12:19:58  profilanswer
 

yoda34 a écrit :


Je relance avec mon alerte gros n00b :whistle:

 

J’ai le même problème, impossible de monter en NFS mon dossier sur NAS Syno

 

Pourtant j’ai bien mis mon LXC en privilégié mais rien n’y fait, j’ai un message d’erreur quand je veux tester le montage (un truc du genre la version n’est pas bonne, j’ai plus la phrase exacte en tête)

 

Du coup j’imagine que c’est ma config de montage qui pue.

 

Si t’as un tuto gronoob compliant je dis pas non :sweat:
Merci :jap:

 
Phenix21 a écrit :

:hello:

 

Alerte noob :o

 

J'ai installé proxmox sur un nuc pour y faire tourner ma domotique + divers utilitaires (type adguard), partant du principe que c'était plus simple à sauvegarder et plus efficace que ma solution précédente avec docker sur le syno.
Sur le nuc il y a donc 2 MV (HAOS + 1 debian), et 5 containers (adguard, emby, ...). Un dossier partagé du synology est monté dessus en NFS pour y héberger les sauvegardes.
Lorsque je lance les sauvegardes, mes 2 VM se font correctement, je vois les archives sur le NAS (la dernière de ce matin) avec un log OK. Par contre, les sauvegardes des LXC sont en échec avec le message suivant :

Code :
  1. 2024-09-01 01:09:00 INFO: Starting Backup of VM 102 (lxc)
  2. 2024-09-01 01:09:00 INFO: status = running
  3. 2024-09-01 01:09:00 INFO: CT Name: adguard
  4. 2024-09-01 01:09:00 INFO: including mount point rootfs ('/') in backup
  5. 2024-09-01 01:09:00 INFO: backup mode: snapshot
  6. 2024-09-01 01:09:00 INFO: ionice priority: 7
  7. 2024-09-01 01:09:00 INFO: create storage snapshot 'vzdump'
  8. 2024-09-01 01:09:01 INFO: creating vzdump archive '/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tar.zst'
  9. 2024-09-01 01:09:01 INFO: tar: /mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tmp: Cannot open: Permission denied
  10. 2024-09-01 01:09:01 INFO: tar: Error is not recoverable: exiting now
  11. 2024-09-01 01:09:01 INFO: cleanup temporary 'vzdump' snapshot
  12. 2024-09-01 01:09:01 ERROR: Backup of VM 102 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tmp' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/mnt/vzsnap0' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' ./ | zstd '--threads=1' >/mnt/pve/StockageSyno/dump/vzdump-lxc-102-2024_09_01-01_09_00.tar.dat' failed: exit code 2


Le lancement de la même sauvegarde sur le disque local de proxmox fonctionne par contre.
Qu'est ce qui foire ? une histoire de droits ?
Est ce qu'il peut y avoir un lien avec le fait que je galère à monter le dossier partagé "photos" de mon nas sur un container photoprism ?

 

Merci de votre lecture et votre patience pour un débutant ;)


C'est toujours d'actualité votre problème ?
Les comment est configuré le partage NFS pour les dossiers qui fonctionnent pas?

n°1494611
Phenix21
Posté le 29-09-2024 à 15:35:29  profilanswer
 

ganfoud a écrit :


C'est toujours d'actualité votre problème ?
Les comment est configuré le partage NFS pour les dossiers qui fonctionnent pas?


 :hello:  
Je n'avais pas fait de retour ?
J'ai passé mes lxc en privilégié, et ça a fonctionné

n°1494963
depart
Posté le 16-10-2024 à 17:16:56  profilanswer
 

Je viens de passer un lxc de Ubuntu 22LTS à 24LTS et au reboot qui a suivi la mise à jour... le conteneur ne redémarrait pas correctement. Il apparaissait bien "vert" dans la GUI proxmox, mais pas de console, pas de ssh, réponse au ping n'importe quoi :

Request timeout for icmp_seq 0
Request timeout for icmp_seq 1
Request timeout for icmp_seq 2
Request timeout for icmp_seq 3
ping: sendto: No route to host
Request timeout for icmp_seq 4
ping: sendto: Host is down
Request timeout for icmp_seq 5


Après recherche, voilà la solution :

vi /etc/pve/lxc/102.conf


Ajouter :

lxc.apparmor.profile = unconfined


Et voilà c'est tout, plus qu'à redémarrer et ça roule !
 
Source : https://forum.proxmox.com/threads/u [...] 848/page-2


Message édité par depart le 16-10-2024 à 17:18:21
n°1494964
li1ju
ho putain, ça tourne !
Posté le 16-10-2024 à 17:30:47  profilanswer
 

crapparmor a encore frappé :D
j'ai eu tellmeent de probleme avec ce truc que je le vire systématiquement..

n°1495053
NicCo
Posté le 22-10-2024 à 22:49:10  profilanswer
 

Une question pour un cas que je n'ai pas encore eu le temps de tester.  
Si on ajoute des disques en passthrough sur une VM (par exemple Debian ou Ubuntu / formatés en ext4), est-ce qu'on est dans la capacité un jour de les détacher de la VM et les attacher directement à un autre host physique ? Ou les disques passthrough sont formatés avec un système de fichier particulier qui ne peut être lu nativement par un OS Linux ? Merci ;)


---------------
Topic de vente
n°1495054
burn2
ça rox du poney
Posté le 22-10-2024 à 22:55:21  profilanswer
 

:hello:

 

Le passthrough c'est juste une méthode pour présenter le disque pour qu'il soit accessible directement pour la vm.
Il n'y a pas "conversion" faite à la volée. Donc sauf erreur de ma part oui il est bootable en natif par la suite.
La seule contrainte serait plus en fonction de ce que tu installes s'il y a de quoi booter l'hote en natif (genre si tu prends le cas extrême d'un kernel sans pilote compilé pour ce matériel là)

 

Par exemple, le gpu dédié que tu passes à une vm par passthrough il n'a pas un bios spécifique, c'est plus derrière le pilote qui accepte ou pas de s'installer en fonction de comment on lui présente et s'il y a des sécurités lorsqu'il détecte que c'est virtualisé.


Message édité par burn2 le 22-10-2024 à 23:02:22

---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1495055
NicCo
Posté le 22-10-2024 à 23:16:07  profilanswer
 

Merci pour les infos ;) ce ne serait même pas pour un disque système que je me posais la question mais pour un simple disque de données qui est attachée à une VM en passthrough et que je voudrais relire sur un autre PC physique


---------------
Topic de vente
n°1495056
burn2
ça rox du poney
Posté le 22-10-2024 à 23:23:37  profilanswer
 

Dans ce cas précis à ma connaissance ça doit marcher.


---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1495061
NicCo
Posté le 23-10-2024 à 07:17:49  profilanswer
 

Merci :jap:


---------------
Topic de vente
n°1495150
depart
Posté le 28-10-2024 à 20:54:11  profilanswer
 

Je pose la question ici car c'est là que ça me semble le plus approprié :
j'ai un LXC qui fait tourner un serveur minecraft, j'aimerai bien ouvrir un 2e monde (là il est en créatif, j'aimerai bien faire un autre monde en mode survie).
Il vaut mieux que je clone mon LXC et en fasse un second avec son ip dédiée ou alors il y a moyen (et c'est plus intelligent) de faire tourner 2 serveurs sur le même LXC juste sur des ports différents ?
Ou encore mieux, y-a-t'il moyen d'avoir un seul serveur (jar/plugins...) mais lancées en plusieurs instances avec des mondes diffèrents ?


Message édité par depart le 28-10-2024 à 21:01:04
n°1495155
Iryngael
Awesome, ain't it ?
Posté le 29-10-2024 à 01:29:20  profilanswer
 

C"est plutot un problème de minecraft que de LXC ici. Le plus simple en effet c'est de cloner ton container et lui donner un nom et une ip différents et le faire écouter sur un port différent. Pour plusieurs instances sur le meme serveur je ne sais pas si c'est possible mais connaissant la gourmandise du bestiau, pense à bien augmenter la RAM de ton container ou à contraindre la ram max par instance.

 

EDit : tu peux totalement faire tourner plusieurs instances dans le meme container, il te suffit de spécifier le port différent dans la config via le server.properties en settant la propriété server-port

Message cité 1 fois
Message édité par Iryngael le 29-10-2024 à 01:31:27

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1495165
meluor
Posté le 29-10-2024 à 17:30:26  profilanswer
 

Bonjour,
Une question Proxmox mi-technique, mi-commerciale.
Au boulot on a un premier serveur Proxmox (Proxmox VE 8.2.7, i7-4790K, 32Go de ram) qui virtualise un W2019 pour un logiciel métier.
Et à côté un second petit serveur Proxmox  (Proxmox VE 8.2.8, AMD Turion II Neo N40L 1.5GHz, 2Go de ram), qui sert juste à recevoir des sauvegardes. À noter que ce dernier n'utilise pas Proxmox Backup Server, qui n'existait pas à l'époque de son installation (comme la config matérielle le montre, ce ne sont pas des serveurs récents :-)

 

Sur le premier serveur le pool zfs fut plusieurs fois dégradé, à cause d'un SSD et un HDD générant des erreurs.
J'ai zpool clear, mais les erreurs sont revenues quelque temps plus tard (bon forcément à l'heure où j'écris, le pool zfs est ONLINE :O mais je pense que cela va revenir et je voudrais donc changer les disques avant la grosse panne).

 

Autant même si ce n'est pas ma formation je sais maintenir à jour logiciellement ces serveurs (merci la debian comme PC quotidien depuis des années), autant je ne connais pas (encore) la procédure pour remplacer des disques dans Proxmox.

 

Et comme Proxmox Backup Server a l'air bien adapté pour gérer les sauvegardes de Proxmox VE, je me dis que ça peut être pas mal de l'installer sur le second serveur. Qu'en pensez-vous ?

 

Plusieurs options :
1. Comme c'est pour le boulot, je peux confier ces tâches à un prestataire.
J'ai un devis main d'œuvre, qui ne me semble pas excessif, isn't it  ?
https://i.imgur.com/CciBh1w.png

 

2. Comme j'aime bien apprendre pour le plaisir, je peux apprendre tout ou partie (par exemple le changement de disques), histoire d'être autonome (les prestataires qui osent toucher du linux dans mon coin ne sont pas légion). Si vous m'assurez que c'est pas compliqué, avec le tutoriel qui va bien :)

 

À vos avis ! :hello:

   

Message cité 1 fois
Message édité par meluor le 29-10-2024 à 20:25:11
n°1495168
Iryngael
Awesome, ain't it ?
Posté le 29-10-2024 à 22:52:14  profilanswer
 

Pour une presta je trouve pas ça excessif en effet.

 

Le souci c'est pas de remplacer les disques c'est de faire en sorte que tout tourne comme attendu et savoir depatouiller ZFS si ça merde.

 

Honnêtement ça se fait mais dans un environnement de prod, c'est pas cher payé d'avoir quelqu'un qui sait plutot que 2 qui cherchent

 

J'ai pas de lien sous la main mais en gros ca reste envisageable, le souci c'est le temps potentiellement perdu si ça tourne pas comme prévu

Message cité 1 fois
Message édité par Iryngael le 29-10-2024 à 22:54:14

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1495172
depart
Posté le 30-10-2024 à 07:44:00  profilanswer
 

Iryngael a écrit :

C"est plutot un problème de minecraft que de LXC ici. Le plus simple en effet c'est de cloner ton container et lui donner un nom et une ip différents et le faire écouter sur un port différent. Pour plusieurs instances sur le meme serveur je ne sais pas si c'est possible mais connaissant la gourmandise du bestiau, pense à bien augmenter la RAM de ton container ou à contraindre la ram max par instance.

 

EDit : tu peux totalement faire tourner plusieurs instances dans le meme container, il te suffit de spécifier le port différent dans la config via le server.properties en settant la propriété server-port


J'ai cloné le dossier contenant minecraft dans le lxc, édité le server.properties pour modifier le port (les ports d'ailleurs) et recréé un nouveau service pour lancer au boot/arreter proprement minecraft et en effet ça fonctionne.
Merci

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  211  212  213  214  215  216

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR