Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
819 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  742  743  744  745  746  747  748  749  750
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11338773
ddlabrague​tte
Posté le 05-05-2024 à 05:46:43  profilanswer
 

Reprise du message précédent :

Gunman24 a écrit :

Bonsoir,
 
Quelqu'un sait ce que signifie le E dans la dénomination MSI GeForce RTX 4070 Ventus 2X E 12G OC ?
Parce que la première n'avait pas ce E.
 
Une révision ?


C'est une bonne question  
D'autant plus que le modèle originel était plutôt décrié pour les températures VRM  
Et donc forcément à fuir  [:skaine:1]  
Mais pour le coup j'ai pas la réponse à ta question  [:ex-floodeur:5]

mood
Publicité
Posté le 05-05-2024 à 05:46:43  profilanswer
 

n°11338775
davids
Posté le 05-05-2024 à 06:25:49  profilanswer
 

Gunman24 a écrit :

Bonsoir,
 
Quelqu'un sait ce que signifie le E dans la dénomination MSI GeForce RTX 4070 Ventus 2X E 12G OC ?
Parce que la première n'avait pas ce E.
 
Une révision ?


 
 
Enhanced  ???  [:tinostar dei]  au pif ... en fait je n'en sais rien

n°11338779
Leilu
Posté le 05-05-2024 à 08:01:02  profilanswer
 

$k-flown a écrit :

[…] Après en voyant ça je comprends maintenant pourquoi Valve 20ans après n'a toujours pas donné une suite à Half-life 2, la techno actuelle n'a pas passé un gap encore suffisant pour marquer une vraie différence.

 

Je pourrais penser que tu parles de Valve comme s'ils étaient encore les plus techniquement avancés aujourd'hui, ou pourraient l'être, sur la base de la « création » d'un moteur il y a plus de 20 ans, fork du moteur id Tech 2 (ils sont loin d'être partis de rien) et qui doit son succès davantage à son moteur physique Havok qu'à son moteur de jeu à proprement parlé.

 

Même si ça m'embête, je vois mal Epic et Nvidia se faire détrôner demain vu les gros sous mis dans UE et les « ressources » humaines qu'ils brassent pour ne pas dire exploitent à travers la gratuité et l'accessibilité de leur moteur.

 

La gourmandise vient du ray tracing. C'est impressionnant quand il y a à peine quelques années il aurait fallu plusieurs seconde voire minutes pour obtenir une frame de ce rendu.

 

Je pense cependant que le jv fait fausse route avec sa quête du réalisme à tout crin. Je pense que la rasterization aurait dû rester la voie du futur pour un jv plus démocratiquement partagé et avant tout centré sur le gameplay.
De toute façon, je crois qu'on commence à s'apercevoir de certaines limites atteintes avec un retour sur terre de pas mal de monde qui se satisfont du 1440p, n'utilisent pas le ray tracing, font partie des patient gamers de plus en plus nombreux, ne jouent plus aux vitrines techniques, s'amusent davantage sur Hollow Knight que sur Avatar, et n'achètent plus le dernier modèle de la dernière génération de carte graphique, faute de moyens ou même d'intérêt.

 

Ce n'était peut-être pas le meilleur topic pour parler de ça d'ailleurs. :o

Message cité 1 fois
Message édité par Leilu le 05-05-2024 à 08:10:11

---------------
Expert PAKRAM sur MOS 32 H-track en bibande PADIRAC | Logiciels utiles
n°11338790
kalix7
Posté le 05-05-2024 à 10:15:10  profilanswer
 

lilendo13 a écrit :

Surtout que sa tournerait mieu en 2k.
C'est bien jolie la 4k mais il y a 0 différence avec du 1440p.
C'est beaucoup de marketing ce "besoin" de puissance en realité.
 
https://youtu.be/qbgSRYLOOsE?t=986
Vous me dites si vous y voyez la moindre différence (hors fps en moins).  :o


 
Tu ne verras jamais la différence sur une vidéo Youtube dont la compression est ignoble !
 
La différence entre 1440p et 4k est énorme, notamment sur écrans > 27 pouces  ;)

n°11338792
[Toine]
A la demande générale...
Posté le 05-05-2024 à 10:19:43  profilanswer
 

kalix7 a écrit :


 
Tu ne verras jamais la différence sur une vidéo Youtube dont la compression est ignoble !
 
La différence entre 1440p et 4k est énorme, notamment sur écrans > 27 pouces  ;)


La différence est surtout énorme quand t'es en résolution native de l'écran et en extrapolé :D


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338803
petit-tigr​e
miaou
Posté le 05-05-2024 à 11:56:13  profilanswer
 

kalix7 a écrit :


 
La différence entre 1440p et 4k est énorme, notamment sur écrans > 27 pouces  ;)


 
Sur téléviseur, c'est loin d'être énorme comme différence.


---------------
mIaOuUuUuUuUuUu
n°11338805
Toxin
Carpe ★★ Vitam
Posté le 05-05-2024 à 12:13:17  profilanswer
 

lilendo13 a écrit :

Surtout que sa tournerait mieu en 2k.
C'est bien jolie la 4k mais il y a 0 différence avec du 1440p.
C'est beaucoup de marketing ce "besoin" de puissance en realité.

 

https://youtu.be/qbgSRYLOOsE?t=986
Vous me dites si vous y voyez la moindre différence (hors fps en moins). :o


Clairement si j'ai un écran 4k chez moi c'est pour d'autres raisons que le jeu :jap:


---------------
"If you can walk away from a landing, it's a good landing. If you use the airplane the next day, it's an outstanding landing." - Chuck Yeager. | Chaîne YT | Photos
n°11338816
$k-flown
Posté le 05-05-2024 à 13:46:58  profilanswer
 

Leilu a écrit :


Je pense cependant que le jv fait fausse route avec sa quête du réalisme à tout crin. Je pense que la rasterization aurait dû rester la voie du futur pour un jv plus démocratiquement partagé et avant tout centré sur le gameplay.


 
Je pense que les jeux qui vont essayer d'être le plus réaliste possible vont finir par tomber dans une sorte "d'uncanny valley visuelle" dont il sera dur de s'extraire.
 
Sur des images fixes ça ressemblera à des photos, mais en mouvements d'insignifiants détails triggereront notre perception, genre un mouvement de feuille ou d'eau pas naturel suffiront à nous faire ressentir que c'est du faux, là où par exemple si un open world ressemble à un dessin animé cell shadé, on ne se posera jamais la question même si la physique est lunaire.

n°11338820
Kenshineuh
Posté le 05-05-2024 à 13:52:45  profilanswer
 

Les jeuxvideos ne font pas fausse route avec le réalisme. C'est juste que c'est un défi technique donc c'est challengeant. La majorité des jeux qui sortent sont clairement pas axé dessus, et je parle même pas de la tonne de jeux indé qui sortent ou ceux avec une DA en pixel art. Ou bien même tout le catalogue Nintendo par exemple. :o
Souvent ce sont les mods qui veulent faire du réaliste.

 

Et je serais moins catégorique quand au fait de dire qu'on saura bien différencier le vrai du faux. Si on compare les jeux d'il y a 20 ans et aujourd'hui, c'est insane la progression, donc d'ici 20-30 ans, on pourra en rediscuter. :D


Message édité par Kenshineuh le 05-05-2024 à 13:54:57
n°11338842
Mellodya
Posté le 05-05-2024 à 15:42:57  profilanswer
 

petit-tigre a écrit :

 

Sur téléviseur, c'est loin d'être énorme comme différence.

 

Faut se rapprocher :)
L'image est très fine en 4K :)
Pour moi y'a une énorme différence entre un 4K 42 et un 1440p 27 avec recul un peu plus élevé pour la télé.
En dehors de l'HDR et l'Oled où on ne peut pas comparer, je vois cette finesse des détails bien plus présente d'autant plus que vu la dalle est plus grande les éléments sont plus grands.

 

Après faut tester, chacun sa sensibilité je suppose.

 
Toxin a écrit :


Clairement si j'ai un écran 4k chez moi c'est pour d'autres raisons que le jeu :jap:

 

Ou tu peux avoir les deux. Dans mon bureau j'ai un 42 4K LG C2 et dans le salon j'ai le C3 en 65.
Forcément pour les films et séries en 4K HDR c'est mieux dans le salon vu la dalle et le canapé (en plus j'ai l'installation audio), mais pour le jeu 42 est une taille impeccable.

 

L'avantage aussi des télés 4K c'est le prix qui est bas avec un HDR en 800 nits environ, de l'Oled et du 120 fps en Gsync. Cela donne à réfléchir ... alors qu'avant j'étais sur le Asus PQ279 en 27 en IPS/Gsync/144 donc pas de merde non plus.

Message cité 1 fois
Message édité par Mellodya le 05-05-2024 à 15:46:17
mood
Publicité
Posté le 05-05-2024 à 15:42:57  profilanswer
 

n°11338886
Toxin
Carpe ★★ Vitam
Posté le 05-05-2024 à 18:39:37  profilanswer
 

Je parlais de mon moniteur PC.
J'ai très longtemps hésité au moment de l'achat mais le côté utilisation graphisme/retouche photo m'a fait prendre un 4k plutôt qu'un qhd.
J'ai quand même changé la cg 1 an après, la 1060 6go avait du mal même sur KSP :o


---------------
"If you can walk away from a landing, it's a good landing. If you use the airplane the next day, it's an outstanding landing." - Chuck Yeager. | Chaîne YT | Photos
n°11338903
Gunman24
Posté le 05-05-2024 à 19:42:22  profilanswer
 

Cybertek.fr c'est clean comme site ?
Ils font des promos là sur les GPU.

n°11338907
[Toine]
A la demande générale...
Posté le 05-05-2024 à 19:51:11  profilanswer
 

Si ça n'a pas changé, pas de souci avec Cybertek ( groupe Cybertek/Grosbill )


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338911
petit-tigr​e
miaou
Posté le 05-05-2024 à 20:03:00  profilanswer
 

Mellodya a écrit :

 

Faut se rapprocher :)
L'image est très fine en 4K :)
Pour moi y'a une énorme différence entre un 4K 42 et un 1440p 27 avec recul un peu plus élevé pour la télé.
En dehors de l'HDR et l'Oled où on ne peut pas comparer, je vois cette finesse des détails bien plus présente d'autant plus que vu la dalle est plus grande les éléments sont plus grands.

 

Après faut tester, chacun sa sensibilité je suppose.

 


 
Mellodya a écrit :

 

Ou tu peux avoir les deux. Dans mon bureau j'ai un 42 4K LG C2 et dans le salon j'ai le C3 en 65.
Forcément pour les films et séries en 4K HDR c'est mieux dans le salon vu la dalle et le canapé (en plus j'ai l'installation audio), mais pour le jeu 42 est une taille impeccable.

 

L'avantage aussi des télés 4K c'est le prix qui est bas avec un HDR en 800 nits environ, de l'Oled et du 120 fps en Gsync. Cela donne à réfléchir ... alors qu'avant j'étais sur le Asus PQ279 en 27 en IPS/Gsync/144 donc pas de merde non plus.

 

Je suis à environ 2m50 de la TV, un C1 55".
La différence 1440p/4K, bah ça dépend des jeux en fait et de leurs traitements.
Sur Wreckfest par exemple, c'est assez visible. Sur Forza Horizon ou Fallout 4, beaucoup moins.

 

Reste le combo 120 fps + Gsync qui viennent s'ajouter et je ne pourrai plus jamais retourner sur moniteur pour jouer :D
D'autant que les TV sont très à l'aise avec les résolutions non natives, il n'y a que du bonus même si en oled, j'évite la bureautique.


Message édité par petit-tigre le 05-05-2024 à 20:03:24

---------------
mIaOuUuUuUuUuUu
n°11338914
uNReaLx77
üNReaL
Posté le 05-05-2024 à 20:10:10  profilanswer
 

Ne comparez pas des TV et des écrans sérieux.

n°11338919
minux
On Linux ...
Posté le 05-05-2024 à 20:21:45  profilanswer
 

uNReaLx77 a écrit :

Ne comparez pas des TV et des écrans sérieux.


Je vois pas pourquoi, les TV modernes (comme la LG OLED 42C2) sont une super alternative à l'écran pur PC, j'en utilise une depuis le début de l'année, et c'est top !


---------------
Ho to root your Pixel | Mes linux : 2002: Mandrake -> 2005: Ubuntu -> 2010: Arch | “A computer is like air conditioning – it becomes useless when you open Windows.” - Linus Torvalds
n°11338920
uNReaLx77
üNReaL
Posté le 05-05-2024 à 20:41:08  profilanswer
 

minux a écrit :


Je vois pas pourquoi, les TV modernes (comme la LG OLED 42C2) sont une super alternative à l'écran pur PC, j'en utilise une depuis le début de l'année, et c'est top !


Une TV c'est blindé de traitement d'image qu'un écran n'a pas, certes tu peux t'en servir d'écran, mais comparer les qualité résolution ne sert a rien.

n°11338921
[Toine]
A la demande générale...
Posté le 05-05-2024 à 20:41:43  profilanswer
 

uNReaLx77 a écrit :


Une TV c'est blindé de traitement d'image qu'un écran n'a pas, certes tu peux t'en servir d'écran, mais comparer les qualité résolution ne sert a rien.


Ca se désactive les traitements. C'est un peu chiant, mais ça se fait :D


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338922
uNReaLx77
üNReaL
Posté le 05-05-2024 à 20:44:30  profilanswer
 

[Toine] a écrit :


Ca se désactive les traitements. C'est un peu chiant, mais ça se fait :D


Heuuu...compare un écran et une tv hors résolution native, la TV fait bien mieux... Il y a des traitements que tu ne désactiveras pas... Après j'ai pas dis c'était moins bien hein...
 
Juste faut pas comparer les 2 ça sert a rien.

Message cité 1 fois
Message édité par uNReaLx77 le 05-05-2024 à 20:45:11
n°11338924
[Toine]
A la demande générale...
Posté le 05-05-2024 à 20:52:45  profilanswer
 

uNReaLx77 a écrit :


Heuuu...compare un écran et une tv hors résolution native, la TV fait bien mieux... Il y a des traitements que tu ne désactiveras pas... Après j'ai pas dis c'était moins bien hein...

 

Juste faut pas comparer les 2 ça sert a rien.


Tu ne désactiveras pas tout, tu garderas effectivement ton algo d'upscaling, mais il faut quand même en désactiver certains en gaming je pense, ne serait ce que pour des questions de latence.

 

Les trucs genre "bruit MPEG" faut dégager :D

Message cité 1 fois
Message édité par [Toine] le 05-05-2024 à 20:53:44

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338925
uNReaLx77
üNReaL
Posté le 05-05-2024 à 20:55:39  profilanswer
 

[Toine] a écrit :


Tu ne désactiveras pas tout, tu garderas effectivement ton algo d'upscaling, mais il faut quand même en désactiver certains en gaming je pense, ne serait ce que pour des questions de latence.
 
Les trucs genre "bruit MPEG" faut dégager :D


Oui mais sur les tv maintenant c'est automatique, ça se met direct sur les mode faible latence "normalement", ça se met en mode jeux ou pc. Oled on peut pas faire mieux.
 
Je parlais juste des comparo qualité entre les TV et les écrans.

Message cité 1 fois
Message édité par uNReaLx77 le 05-05-2024 à 20:56:19
n°11338926
Mellodya
Posté le 05-05-2024 à 21:02:29  profilanswer
 

Sur la LG on peut vraiment désactiver quasi tout pour avoir l'image la moins retouchée possible et bien sur faut l'utiliser en résolution native. Le mode Gamer est super bon et quasi rien à paramétrer.
 
Après on est sur l'OLED et même en bureautique : la taille de la dalle permet de travailler vraiment avec plusieurs fenêtres et le deuxième écran ... sert moins. Je l'ai depuis 13 mois et pas de burn in alors que je suis en HDR en plus sur le bureau.
 
C'est vraiment une très bonne télé comme moniteur quand même et le prix est correct. J'aurai peut être aimé un peu plus de Nits (de mémoire la C3 j'ai lu que c'était 1200/1300 je crois) mais bon à partir de 800 c'est ok quand même. Faut être aveugle pour pas le voir :)

n°11338927
[Toine]
A la demande générale...
Posté le 05-05-2024 à 21:03:13  profilanswer
 

uNReaLx77 a écrit :


Oui mais sur les tv maintenant c'est automatique, ça se met direct sur les mode faible latence "normalement", ça se met en mode jeux ou pc. Oled on peut pas faire mieux.
 
Je parlais juste des comparo qualité entre les TV et les écrans.


Les TV OLED sont 120HZ donc l'input lag est quand même mathématiquement de l'ordre de 9ms minimum :D , même si les pixels sont plus réactif côté dalle.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338928
[Toine]
A la demande générale...
Posté le 05-05-2024 à 21:04:06  profilanswer
 

Mellodya a écrit :

Sur la LG on peut vraiment désactiver quasi tout pour avoir l'image la moins retouchée possible et bien sur faut l'utiliser en résolution native. Le mode Gamer est super bon et quasi rien à paramétrer.
 
Après on est sur l'OLED et même en bureautique : la taille de la dalle permet de travailler vraiment avec plusieurs fenêtres et le deuxième écran ... sert moins. Je l'ai depuis 13 mois et pas de burn in alors que je suis en HDR en plus sur le bureau.
 
C'est vraiment une très bonne télé comme moniteur quand même et le prix est correct. J'aurai peut être aimé un peu plus de Nits (de mémoire la C3 j'ai lu que c'était 1200/1300 je crois) mais bon à partir de 800 c'est ok quand même. Faut être aveugle pour pas le voir :)


Ca dépend, y a C3 et C3 . C3 >=55 pouces et les plus petits.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11338929
Mellodya
Posté le 05-05-2024 à 21:06:38  profilanswer
 

[Toine] a écrit :


Ca dépend, y a C3 et C3 . C3 >=55 pouces et les plus petits.


 
Ah oui tu as raison les nits augmentent selon la taille dès le C2. Les 42 et 48 sont plus légers à 800 et déjà au dessus sur le C2 c'était genre 1200.
 
Après dans le salon j'ai le format 65 et C3 donc nickel pour les films (non pas que le HDR soit inutile dans les jeux, moi j'aime bien même l'auto HDR de W11, mais sur certains jeux c'est excellent (cf Baldur's Gate 3))

n°11338935
kalix7
Posté le 05-05-2024 à 21:48:50  profilanswer
 

Mellodya a écrit :


 
Ah oui tu as raison les nits augmentent selon la taille dès le C2. Les 42 et 48 sont plus légers à 800 et déjà au dessus sur le C2 c'était genre 1200.
 
Après dans le salon j'ai le format 65 et C3 donc nickel pour les films (non pas que le HDR soit inutile dans les jeux, moi j'aime bien même l'auto HDR de W11, mais sur certains jeux c'est excellent (cf Baldur's Gate 3))


 
Quand ça marche bien, le HDR transforme complètement certains jeu  :love:  

n°11338956
matt33000
Posté le 06-05-2024 à 07:31:56  profilanswer
 

Mellodya a écrit :


 
Ah oui tu as raison les nits augmentent selon la taille dès le C2. Les 42 et 48 sont plus légers à 800 et déjà au dessus sur le C2 c'était genre 1200.
 
Après dans le salon j'ai le format 65 et C3 donc nickel pour les films (non pas que le HDR soit inutile dans les jeux, moi j'aime bien même l'auto HDR de W11, mais sur certains jeux c'est excellent (cf Baldur's Gate 3))


     
 
Avec de si grandes dalles comme écran de pc,  vous n'avez pas mal au yeux ou fatigue oculaire ? Vous devez bouger carrément la tete pour voir les extrémités ?  
Est -ce que s'est vraiment le même ressenti que sur écran pc dans les jeux rapides ?
 
J'ai essayer une fois avec ma télé 50 pouces mini led, j'ai abandonné direct , de + la perte de fps avec ma 4080, s'etait violent entre 1440 et 4k ... BF2042 ,cyberpunk etc. Vite repassé sur mon 1440 /240 hz.


Message édité par matt33000 le 06-05-2024 à 08:56:17

---------------
2 ième compte. 1er compte: pseudo mat33000
n°11338960
uNReaLx77
üNReaL
Posté le 06-05-2024 à 07:52:35  profilanswer
 

Dans les jeux rapide il vaut mieux un petit écran... Même 32 c'est trop grand. Sinon tu perd du temps :o

n°11338967
worm'skill​er
Le roi de la petit côte
Posté le 06-05-2024 à 09:18:46  profilanswer
 

Phadaiz a écrit :

Je me permets de relancer le topic que je trouve un peu mou ces deniers temps. :o  
 
Après le câble d'alim PCIe5 foireux qui concerne essentiellement les 4090, voici venir maintenant un 2ème coup dur avec les cpu Intel 13 et 14 génération qui peuvent s'user prématurément si la conso est trop haute.
Dans les deux cas c'est un problème de conso trop élevé qui dépasse les normes de sécurité (et tout le monde rejette la faute sur les autres).
 
Ce n'est pas du tout rassurant pour ceux qui possèdent le combo 4090 + i9-14900K (et même un cpu inférieur).
Pour sécuriser tout ça il faut flasher le bios de sa CM mais ce n'est pas sans perte de perfs dans les jeux.
 
https://www.techspot.com/review/283 [...] line-spec/
 
Sur Cyberpunk 2077 je ne trouve pas la perte négligeable bien que la 4090 reste surpuissante.
 
https://i.postimg.cc/brBL4J1m/Tech-CP2077-UC-bench.jpg
 
Cela me conforte dans mon choix : Ryzen 7800X3D + 4070ti Super. :)
 
J'ai bien fait de vouloir une config avec une conso raisonnable, même si c'était d'abord une question de coût.
 


 

uNReaLx77 a écrit :

J'ai un 13600k, a stock il dépasse pas les 160w...  
Le soucis chez Intel c'est qu'ils ont trop de puce pourri sur lesquels il faut un voltage monstrueux...  
 
En gros c'est soit tu as de la chance tu tombes sur un bon, soit t en a pas et tu vas devoir sous Volter ou bloqué la conso avec la perte qui va avec ...


 
je pense aussi qu'il faut se méfier des généralités colportées sur le web. Par contre, je pense qu'intel a eu des processeurs trop limites qui ont été mis sur le marché.
 
J'ai eu 13700k (DDR4 4000 sur 4 slots) et un 14900k (DDR5 7600) qui tournent comme des horloges suisses.


---------------
"le prix passe, la qualité reste"
n°11338969
uNReaLx77
üNReaL
Posté le 06-05-2024 à 09:26:07  profilanswer
 

worm'skiller a écrit :


 
je pense aussi qu'il faut se méfier des généralités colportées sur le web. Par contre, je pense qu'intel a eu des processeurs trop limites qui ont été mis sur le marché.
 
J'ai eu 13700k (DDR4 4000 sur 4 slots) et un 14900k (DDR5 7600) qui tournent comme des horloges suisses.


Mon 13600k aussi tourne nikel, mais pour en avoir installé quelqu'un je peux t'assurer que c'est pas le cas de tous ..enfin si, ça tourne,  mais quand le bordel tape 1.45v et 100 degrés va expliqué pourquoi toi.
 
Alors que.le même a côté tourne a 1.15v a moins de 70°... Et je parle pas conso.

Message cité 1 fois
Message édité par uNReaLx77 le 06-05-2024 à 09:27:31
n°11338986
Phadaiz
Posté le 06-05-2024 à 11:21:16  profilanswer
 

uNReaLx77 a écrit :

Mon 13600k aussi tourne nikel, mais pour en avoir installé quelqu'un je peux t'assurer que c'est pas le cas de tous ..enfin si, ça tourne,  mais quand le bordel tape 1.45v et 100 degrés va expliqué pourquoi toi.

 

Alors que.le même a côté tourne a 1.15v a moins de 70°... Et je parle pas conso.


La 13e génération est peut-être aussi beaucoup moins touchée ou peut-être que ça ne concerne que les i9, sinon ont en aurait entendu parler depuis le temps.
Il ne me semble pas qu'il y ait eu un nombre de pannes anormales sur cette génération.

 
worm'skiller a écrit :

je pense aussi qu'il faut se méfier des généralités colportées sur le web. Par contre, je pense qu'intel a eu des processeurs trop limites qui ont été mis sur le marché.
J'ai eu 13700k (DDR4 4000 sur 4 slots) et un 14900k (DDR5 7600) qui tournent comme des horloges suisses.

 

J'ai un Ryzen 7800X3D et une CM Asus ROG STRIX X670E, à une époque il y avait un overclock/boost auto avec cette configuration qui faisait cramer le proc.
Ce problème réel a été reconnu par le fabricant, ça a été corrigé avec une maj du bios sans perte de perfs dans les jeux.
J'ai acheté en connaissance de cause car je savais que le problème avait été réglé, et au 1er boot de ma carte j'avais déjà le bon bios (que j'ai quand même flashé avec un bios plus récent).
Ce n'est pas pour autant qu'il y a eu une hécatombe de 7800X3D, la grande majorité des utilisateurs n'ont rien eu et ont flasher leur bios.

 

Là ce nouveau problème est plus général chez Intel et tout autant réel, il concerne un nombre indéfini de CM et CPU (dont je ne connais pas la liste exacte).
D'après moi c'est un peu plus grave car on ne connait pas encore l'ampleur ni la durée de vie des procs qui ont été ou seront touchés (tic-tac, tic-tac, ...).

 

Ce n'est pas une hécatombe non plus et seule une petite poignée d'utilisateurs ont eu un proc grillé et d'autres ont eu des plantages (ce qui a permis d'identifier le problème).
Il a des nouveaux bios qui rectifient la conso mais avec des perte de perfs dans les jeux qui sont plus ou moins importantes, même en 4K (-9% en moyenne et jusqu'à -20% de fps min).
https://www.cowcotland.com/news/912 [...] ation.html
https://www.comptoir-hardware.com/a [...] 4900k.html

 

Dans le cas des utilisateurs qui savent gérer manuellement l'OC et qui connaissent bien les limites à ne pas dépasser, je pense qu'ils n'ont pas de souci à se faire et qu'ils pourront même rattraper une partie des perfs perdues en overclockant.
Pour les autres qui préfèrent laisser gérer les boost/OC en auto c'est plus risqué, et dans tous les cas il est vivement conseillé de flasher le bios.
Personnellement vu le risque j'hésiterais pas à flasher, mais il faut avouer que pour ceux qui ont investis une grosse somme dans leur config (i9-14900K+RTX 4090) c'est ballot. :o

Message cité 1 fois
Message édité par Phadaiz le 06-05-2024 à 11:31:47
n°11338987
ashkandie
Posté le 06-05-2024 à 11:22:11  profilanswer
 

Hello,
 
Je ne sais pas si certains ici ont commandé la PNY 4080 super XLR8 qui était en promo chez amazon à 1059€; mais j'ai reçu la mienne et ca a l'air d'être de la super cam ! 0 coil whine pour couronner le tout :D

n°11338992
Phadaiz
Posté le 06-05-2024 à 11:42:07  profilanswer
 

Oui la série XLR8 a une bonne réputation mais ça fait +200€ de plus que ma 4070TiS Panther pour 15% de perf en plus, je ne sais pas si j'aurais tenté le coup avec les RTX5000 en approche.  
Ma 4070Ti fait déjà tourner tous les jeux à merveille en ultra 1440P, mais je trouve la 4080 nettement plus forte en bench 3DMark, profite en bien ! :)

Message cité 1 fois
Message édité par Phadaiz le 06-05-2024 à 11:45:45
n°11338994
ashkandie
Posté le 06-05-2024 à 11:47:00  profilanswer
 

Phadaiz a écrit :

Oui la série XLR8 a une bonne réputation mais ça fait +200€ de plus que ma 4070Ti Panther pour 15% de perf en plus, je ne sais pas si j'aurais tenté le coup avec les RTX5000 en approche.  
Ma 4070Ti fait déjà tourner tous les jeux à merveille en ultra 1440P, mais je trouve la 4080 nettement plus forte en bench 3DMark, profite en bien ! :)
 


 
Etrangement, il y a pas tant d'écart que ca par rapport à ma 6900XT sur 3Dmark, j'ai 4000 points de diff sur un timespy il me semble.
J'ai hésité d'attendre les séries 5000, mais je me suis dit qu'avce la conjoncture actuelle, on ne verrait pas les 5000 "abordables" avant 1 an...

n°11338996
bitubo
GT Turbo Addict
Posté le 06-05-2024 à 12:09:30  profilanswer
 

ashkandie a écrit :

Hello,

 

Je ne sais pas si certains ici ont commandé la PNY 4080 super XLR8 qui était en promo chez amazon à 1059€; mais j'ai reçu la mienne et ca a l'air d'être de la super cam ! 0 coil whine pour couronner le tout :D


J'ai une 4070ti XLR8 sous flotte

 

Satisfait aussi  :jap:


---------------
Watercooling CPU+GPU, i9 9900KF @4.9Ghz, 32Go Ddr4 3200Mhz Dual, RTX 4070Ti
n°11339051
worm'skill​er
Le roi de la petit côte
Posté le 06-05-2024 à 16:01:43  profilanswer
 

Phadaiz a écrit :


La 13e génération est peut-être aussi beaucoup moins touchée ou peut-être que ça ne concerne que les i9, sinon ont en aurait entendu parler depuis le temps.
Il ne me semble pas qu'il y ait eu un nombre de pannes anormales sur cette génération.
 


 

Phadaiz a écrit :


 
J'ai un Ryzen 7800X3D et une CM Asus ROG STRIX X670E, à une époque il y avait un overclock/boost auto avec cette configuration qui faisait cramer le proc.
Ce problème réel a été reconnu par le fabricant, ça a été corrigé avec une maj du bios sans perte de perfs dans les jeux.
J'ai acheté en connaissance de cause car je savais que le problème avait été réglé, et au 1er boot de ma carte j'avais déjà le bon bios (que j'ai quand même flashé avec un bios plus récent).
Ce n'est pas pour autant qu'il y a eu une hécatombe de 7800X3D, la grande majorité des utilisateurs n'ont rien eu et ont flasher leur bios.
 
Là ce nouveau problème est plus général chez Intel et tout autant réel, il concerne un nombre indéfini de CM et CPU (dont je ne connais pas la liste exacte).
D'après moi c'est un peu plus grave car on ne connait pas encore l'ampleur ni la durée de vie des procs qui ont été ou seront touchés (tic-tac, tic-tac, ...).
 
Ce n'est pas une hécatombe non plus et seule une petite poignée d'utilisateurs ont eu un proc grillé et d'autres ont eu des plantages (ce qui a permis d'identifier le problème).
Il a des nouveaux bios qui rectifient la conso mais avec des perte de perfs dans les jeux qui sont plus ou moins importantes, même en 4K (-9% en moyenne et jusqu'à -20% de fps min).
https://www.cowcotland.com/news/912 [...] ation.html
https://www.comptoir-hardware.com/a [...] 4900k.html
 
Dans le cas des utilisateurs qui savent gérer manuellement l'OC et qui connaissent bien les limites à ne pas dépasser, je pense qu'ils n'ont pas de souci à se faire et qu'ils pourront même rattraper une partie des perfs perdues en overclockant.
Pour les autres qui préfèrent laisser gérer les boost/OC en auto c'est plus risqué, et dans tous les cas il est vivement conseillé de flasher le bios.
Personnellement vu le risque j'hésiterais pas à flasher, mais il faut avouer que pour ceux qui ont investis une grosse somme dans leur config (i9-14900K+RTX 4090) c'est ballot. :o


 
oui, tu as peut être raison ou pas ... pour l'instant, on a un article de techspot que tous les "journalistes" hardware relayent en boucle ...  


---------------
"le prix passe, la qualité reste"
n°11339061
Phadaiz
Posté le 06-05-2024 à 17:35:03  profilanswer
 

worm'skiller a écrit :

oui, tu as peut être raison ou pas ... pour l'instant, on a un article de techspot que tous les "journalistes" hardware relayent en boucle ...


Ok il encore pas mal de points obscurs, et je ne suis pas expert ni à fond sur le sujet pour bien en parler.

 

Ce que je pointe et qu'on est vraiment sûr, c'est que la maj bios plombe un peu les perfs en jeu, et je ne parle même pas des applications car ce n'est pas le bon topic.
Je me concentre uniquement sur les jeux et les résultats des benchs avec les RTX pour ne pas faire du hors sujet.

 

Et on s'aperçoit qu'avec ces nouveaux bios il va falloir revoir les tests des jeux pour les derniers CPU Intel pour avoir les résultats réels après maj du bios.
Maintenant je me méfie encore plus d'Intel et de tout ce qui est un gouffre à watts, aussi bien pour les CPU que pour les GPU.

 

Une fois j'avais lu un article qui démontrait que sur certains jeux une RTX4070 avec un bon CPU comme le 7800X3D pouvait faire mieux qu'une RTX4070Ti avec un CPU moins performant.
Il faudrait que je le retrouve. Je me demande maintenant quelle est l'équivalence AMD d'un i7-14700K dans les jeux.

 

Voilà l'article (sur techspot) :
https://www.techspot.com/review/279 [...] aster-cpu/


Message édité par Phadaiz le 06-05-2024 à 17:54:35
n°11339073
uNReaLx77
üNReaL
Posté le 06-05-2024 à 18:39:51  profilanswer
 

En jeux c'est 3 5% de pertes ... Les connaisseurs n'y perdront rien. Après réglages...
 
Pour ton test dépend de la résolution... Et quelques jeux mais sinon... Après le x3d est un cpu pour le jeux...
 
Et ça va surtout dépendre des jeux, Intel sont loin d'être a la ramasse non plus... Le 13 ou 14900k n'est pas un cpu fait que pour le jeux.
 
https://www.techpowerup.com/review/ [...] 3d/21.html


Message édité par uNReaLx77 le 06-05-2024 à 18:40:48
n°11339130
petit-tigr​e
miaou
Posté le 07-05-2024 à 03:52:33  profilanswer
 

uNReaLx77 a écrit :


Une TV c'est blindé de traitement d'image qu'un écran n'a pas, certes tu peux t'en servir d'écran, mais comparer les qualité résolution ne sert a rien.


Ce n'est que toi qui le dit et si tu ne veux pas comparer, ne le fais pas. Mais factuellement de nos jours, un téléviseur peut parfaitement remplacer avantageusement un moniteur en amenant des qualités qu'un moniteur n'offrira pas.

 

Il y a plein d'arguments à cela, à commencer par ton activité. Si comme moi tu fais du jeu, t'as tout à y gagner et c'est précisément pour ça que j'ai lâché les moniteurs au profit des TV. On est en 2024 : c'est fini le PC cantonné à un bureau. Aujourd'hui, on peut les placer sous la TV et rester dans son canapé. Tout est unifié, même les connectiques alors pourquoi se priver ?

Message cité 3 fois
Message édité par petit-tigre le 07-05-2024 à 03:57:49

---------------
mIaOuUuUuUuUuUu
n°11339136
uNReaLx77
üNReaL
Posté le 07-05-2024 à 07:34:15  profilanswer
 

petit-tigre a écrit :


Ce n'est que toi qui le dit et si tu ne veux pas comparer, ne le fais pas. Mais factuellement de nos jours, un téléviseur peut parfaitement remplacer avantageusement un moniteur en amenant des qualités qu'un moniteur n'offrira pas.
 
Il y a plein d'arguments à cela, à commencer par ton activité. Si comme moi tu fais du jeu, t'as tout à y gagner et c'est précisément pour ça que j'ai lâché les moniteurs au profit des TV. On est en 2024 : c'est fini le PC cantonné à un bureau. Aujourd'hui, on peut les placer sous la TV et rester dans son canapé. Tout est unifié, même les connectiques alors pourquoi se priver ?


J'ai toujours eu les 2... Mon pc est dans le salon. Une TV fait aussi bien voir mieux qu'un Moniteur. Je crois tu n'as pas compris le sens de mon message.
 
Et bien avant 2024.. ça fait 10ans ma TV est branchée au pc... Led qled Oled...même un plasma a une époque :o Bref ... Simu auto je joue sur la TV...FPS sur l'écran...  Un écran c'est brut... Une TV c'est traité... Tu peux pas jouer avec la résolution sur un écran comme sur une TV...sur écran c'est moche. TV c'est propre d'autant que tu as plus de recul.
Ta TV va traiter l'image pour la rendre plus lisse, pas l'écran.

Message cité 1 fois
Message édité par uNReaLx77 le 07-05-2024 à 07:54:45
n°11339143
It_Connexi​on
Posté le 07-05-2024 à 08:54:14  profilanswer
 

petit-tigre a écrit :


Ce n'est que toi qui le dit et si tu ne veux pas comparer, ne le fais pas. Mais factuellement de nos jours, un téléviseur peut parfaitement remplacer avantageusement un moniteur en amenant des qualités qu'un moniteur n'offrira pas.
 
Il y a plein d'arguments à cela, à commencer par ton activité. Si comme moi tu fais du jeu, t'as tout à y gagner et c'est précisément pour ça que j'ai lâché les moniteurs au profit des TV. On est en 2024 : c'est fini le PC cantonné à un bureau. Aujourd'hui, on peut les placer sous la TV et rester dans son canapé. Tout est unifié, même les connectiques alors pourquoi se priver ?


 

uNReaLx77 a écrit :


J'ai toujours eu les 2... Mon pc est dans le salon. Une TV fait aussi bien voir mieux qu'un Moniteur. Je crois tu n'as pas compris le sens de mon message.
 
Et bien avant 2024.. ça fait 10ans ma TV est branchée au pc... Led qled Oled...même un plasma a une époque :o Bref ... Simu auto je joue sur la TV...FPS sur l'écran...  Un écran c'est brut... Une TV c'est traité... Tu peux pas jouer avec la résolution sur un écran comme sur une TV...sur écran c'est moche. TV c'est propre d'autant que tu as plus de recul.
Ta TV va traiter l'image pour la rendre plus lisse, pas l'écran.


 
En fait vous êtes d'accord tous les 2 et je confirme tous les avantages des TV modernes dont l'upscale


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  742  743  744  745  746  747  748  749  750

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR