[b]Los nuevos módulos G-Sync para monitores llevan componentes Intel[/b] Y por eso son más caros. [url=https://www.3djuegos.com/noticias-ver/183016/los-nuevos-modulos-g-sync-para-monitores-llevan-componentes/]Leer la noticia: "Los nuevos módulos G-Sync llevan componentes de Intel"[/url]Monitor gaming, Monitores y pantallas y Gsync
Joder mas caro, como las pantallas con G-Sync no son caras....Nirvana1198Hace 5 años2
Entiendo que puedan quitar el modulo g-sync para hacerlo mas barato pero... entonces sin g-sync??? donde esta la gracia???1 VOTOKonejin4493Hace 5 años3
Me encanta la noticia: [b]"..Y por eso son más caros."[/b]9 VOTOSAbandonAll979Hace 5 años4
Mucho UHD, 4K, 21:9... Pero la lucha contra el tearing sigue ahí...8 VOTOSJoseK3002831Hace 5 años5
Me alegra ver los pasos que da la tecnología, desgraciadamente para mí, ni lo necesito ni sabría aprovechar semejante bicharraco, a parte de lo prohibitivo de su precio. Juego cuando tengo tiempo y con la resolución de mi monitor, 1440 x 900 voy la mar de contento.3 VOTOSKhardia2202Hace 5 años6
Supongo que se requiere de gran potencia de procesamiento para poder lidiar con la cantidad de datos a 4k 144Hz + HDR Supongo que en unos años mejorará considerablemente el precio, por ahora espero que más monitores se sumen al Freesync 2 que hasta ahora van pocos. Ojalá que ps5 se aproveche de la tecnología también.Alvarocar972Hace 5 años7
4 VOTOSRaziel5212445Hace 5 años8La gracia no es solo el gsync, imaginate estos monitores con freesync, 500 dolares mas baratos pero seguirá siendo 4k "144hz", HDR10 con FALD. el gsync no lo es todo.@NirvanaMostrar citaEntiendo que puedan quitar el modulo g-sync para hacerlo mas barato pero... entonces sin g-sync??? donde esta la gracia???
Tanta tecnología en los increíbles monitores y seguimos con Tearing,Shuttering y stuttering.....madre mía!2 VOTOSZERODARKZONE882Hace 5 años9
Lo que no entiendo es porqué llevan una fpga, un chip dedicado sería probablemente más barato e incluso mejor.1 VOTOCaky48009Hace 5 años10
Madafuka4495Hace 5 años11Nunca la ha habido, no hay gráfica actual de NVidia que pueda arrojar 4K y 144Hz en juegos triple A actuales, si es que hasta difíciles les es mantener los 60. Así que no es que hagan mucho la verdad, quitando el módulo reducirían confortablemente el precio y lo harían más atractivo. Tarde o temprano saldrán las versiones mucho más baratas basadas en Freesync, que al final tendrá más aceptación.@NirvanaMostrar citaEntiendo que puedan quitar el modulo g-sync para hacerlo mas barato pero... entonces sin g-sync??? donde esta la gracia???
Aun siguen insistiendo con el obsoleto G-sync? Su alternativa gestionando refresco de imagen por el puerto de salida de cable de video en lugar de un chip dedicado en el monitor como hace G-sync, lo supera tanto por precio, como por eficiencia como por menor latencia. Menuda perdida de dinero.2 VOTOSJoshuaRA158Hace 5 años12EDITADO EL 26-06-2018 / 03:23 (EDITADO 2 VECES)
En freesync... Más dificil aún será llegar a esa tasa de refresco con las RADEON. X otro lado en cuanto lleguen las Ampere, Volta o como las llamen, será perfectamente asumible para las Nvidia aprovechar ese G-sync a pleno rendimiento (ojo y aún ahora, quitando antialiasing y bajando un poco sombras, ya tienes 4k y MAS de 60fps)Caky48009Hace 5 años13
Encyclo1115Hace 5 años14Freesync es un estándar abierto que hasta se puede usar con los gráficos de Intel, NVidia lo bloquea mediante drivers. El problema no es en si usar Freesync, sino que al Freesync ser fácil de implementar al estar estandarizada en HDMI y DisplayPort por igual, prácticamente todos los monitores actuales sin módulo GSync son lanzados con Freesync sin aumentar su coste. Lo que quiero decir es que el que tenga una 1080ti puede perfectamente comprar un monitor Freesync que no tendrá problemas algunos, sólo que no se verá beneficiado por dicha tecnología que la verdad es más propaganda (Tanto GSync como Freesync) que otra cosa.@JoshuaRAMostrar citaEn freesync... Más dificil aún será llegar a esa tasa de refresco con las RADEON. X otro lado en cuanto lleguen las Ampere, Volta o como las llamen, será perfectamente asumible para las Nvidia aprovechar ese G-sync a pleno rendimiento (ojo y aún ahora, quitando antialiasing y bajando un poco sombras, ya tienes 4k y MAS de 60fps)
Yo pienso comprar el AW3418DW y olvidarme por completo de los monitores 4K. Una GPU que corra juegos AAA 4K a 120fps+ no creo que exista hasta un par de años, y para entonces ya habran mejores monitores 4K y mucho mas economicos. Creo que me quedare con 3440x1440, es mas facil de mover juegos a esa resolucion, y la verdad el 21:9 es mucho mas immersivo que el 16:9.1 VOTOYoni-333854Hace 5 años15
Al final al siempre lo mismo el g-sync aumenta considerablemente el coste del monitor y al cabo de un tiempo se pasan a la solución de AMD q es más barata y de código abierto .. Nvidia siempre en lo suyo el Apple del las gráficas ..aunque por ahora vende productos más o menos bueno ..
Hay 36 respuestas en Los nuevos módulos G-Sync para monitores llevan componentes Intel, del foro de Noticias y actualidad. Último comentario hace 5 años.