Op deze website gebruiken we cookies om content en advertenties te personaliseren, om functies voor social media te bieden en om ons websiteverkeer te analyseren. Ook delen we informatie over uw gebruik van onze site met onze partners voor social media, adverteren en analyse. Deze partners kunnen deze gegevens combineren met andere informatie die u aan ze heeft verstrekt of die ze hebben verzameld op basis van uw gebruik van hun services. Meer informatie.

Akkoord

Vraag & Antwoord

Videokaarten en monitoren

-= GeForce FX topic =-

None
324 antwoorden
  • [img:db8bb3d80e]http://www.guru3d.com/tech/geforcefx/img/B_GEFFX_S450.jpg[/img:db8bb3d80e]
    Ik stel voor om maar een apparte Topic aan te maken voor de GeForce FX

    Post hier alles wat je kwijt wil over de GeForce FX en de nieuwtjes die je vind op intenternet

    Meer info over de GeForce FX hier: http://www.nvidia.com/view.asp?PAGE=geforcefx


    Persoonlijk vind ik de conclusie van www.anandtech.com erg goed:

    [quote:db8bb3d80e][b:db8bb3d80e]The launch of the GeForce FX reminds us a lot of the GeForce3; the GPU is impressive and it can enable a good deal of developers to make some great looking games, but it won't be out for a while and neither will those great looking games. [/b:db8bb3d80e]

    The perfect example we like to use is Doom3; Doom3 was designed around DX8 technology, it will be Doom3's successor that can truly take advantage of the features of GeForce FX. This is why we're not easily sold on advanced pixel and vertex shader support when it comes to GPUs; luckily NVIDIA was able to pack much more into the GeForce FX in order to make it quite attractive.

    NVIDIA's Intellisample technology is the perfect example of the type of innovation we're used to seeing from them. NVIDIA will undoubtedly make the move to a 256-bit memory interface eventually, but until then the combination of high speed memory and their compression engine make for a very efficient use of memory bandwidth.

    So there you have it; the elusive NV30 has surfaced in the form of GeForce FX. ATI has won the first round with the Radeon 9700 Pro, what will be most interesting will be what ATI has up their sleeves when the GeForce FX hits the shelves in February. [/quote:db8bb3d80e]

    Nu het lange wachten op de benchmarks en de kaart zelf

    lees ook: http://www.guru3d.com/tech/geforcefx/
  • Hier een benchmark, echter niet echt betrouwbaar omdat nVidia hem zelf heeft gemaakt:

    [img:c6c9790cfc]http://www.guru3d.com/tech/geforcefx/benchies.gif[/img:c6c9790cfc]


    Opvallend stukje vond ik:

    [quote:c6c9790cfc]
    [b:c6c9790cfc]The GeForceFX, alias NV30, is the first NVIDIA chip designed using technologies gained through the acquisition of 3dfx and Gigapixel[/b:c6c9790cfc]. The chip itself is a completely new design that has very little in common with the GeForce4 Ti[/quote:c6c9790cfc]

    Eindelijk doen ze wat met de 3dfx en Gigapixel techniek, dacht dat het nooit meer kwam :)

    Bron
  • Dus toch nog 3dfx spul :D

    my old love ;)
  • //Slashhead

    Echt een kaart voor jou dus begin je contacten maar vast te bellen voor een ;)

    Nvida heeft al een lijst met bedrijfen vrij gegeven die de GeForce FX gaan leveren:

    [quote:8cca009df3]In coming weeks, the following PC OEMs and add-in card manufacturers will be offering products based on the NVIDIA GeForce FX GPU:

    PC OEMs and System Builders

    Alienware Corporation
    CyberPower Inc.
    iBUYPOWER Computer
    Falcon Northwest
    Fujitsu Siemens Computers
    Hypersonic PC Systems
    Vicious PC
    VoodooPC

    Add-in Card Manufacturers

    ASUS Computer International
    BFG Technologies, Inc.
    eVGA.com Corporation
    Gainward Co. Ltd.
    Leadtek Research Inc.
    MSI Computer Corporation
    PNY Technologies, Inc.[/quote:8cca009df3]

    De bekende namen als Asus, Leadtek en Gainward zitten er weer bij.
  • de cooler die nVidia verzonnen heeft is wel heel erg heavy:

    [img:018c5fc980]http://www.hothardware.com
    eviews/images/geforce_fx_pr/card_front.JPG[/img:018c5fc980]

    [img:018c5fc980]http://www.hothardware.com
    eviews/images/geforce_fx_pr/card_plate.JPG[/img:018c5fc980]

    daar gaat weer een pci slot ;)

    Meer plaatjes hier: http://www.hothardware.com/hh_files/S&V/nv30_preview(2).shtml

  • Dat slot kon je toch niet gebruiken. Voordeel van deze koelers is meen ik dat ze errug stil zijn.
  • [quote:2f76187d75="Red Dragon"][quote:2f76187d75]
    [b:2f76187d75]The GeForceFX, alias NV30, is the first NVIDIA chip designed using technologies gained through the acquisition of 3dfx and Gigapixel[/b:2f76187d75]. The chip itself is a completely new design that has very little in common with the GeForce4 Ti[/quote:2f76187d75]

    Eindelijk doen ze wat met de 3dfx en Gigapixel techniek, dacht dat het nooit meer kwam :)

    Bron[/quote:2f76187d75]

    Ja dat is waarschijnlijk de reden dat ze het met 128 bits mem. interface afkonden, ook al is het sneller DDRII, theoretisch heeft de R9700 19 Gb/sec en de GFFX 16 Gb/sec, maar mbv deze techniek kan de effectieve of misschien beter gezegd, benodigde bandbreedte, resp. flink toenemen of flink afnemen, waarbij bij de laatste ook de benodigde fillrate flink lager kan liggen.

    Nou maar weer wachten….. :cry:
  • Ja maar nu ben je het slot daarnaast ook kwijt, temisnte ik ga echt niet zo dicht tegen die kaart een andere plaatsen.

    Anandtech over de cooler:


    [quote:1b0b39ecbb]The cooler takes in cold air from the outside of the case, uses it to remove heat from the heatpipes that run around the GPU and memory devices (on one side of the PCB only) and finally exhausts the air outside of the case. The obvious benefit of this design is that the GeForce FX contributes very little heat to the inside of your case, but the clear downside is that the card occupies two slot cutouts.

    NVIDIA has hinted at offering another version of the GeForce FX at a lower clock speed that would only occupy a single slot cutout, but we will have to wait until the product line is announced before we can find out what the differences will be. Our initial guess would indicate that a simple reduction in clock speed would be enough to go with a more conventional cooling setup.
    [b:1b0b39ecbb]The other issue that users may have is noise, luckily NVIDIA has taken steps to make sure that the GeForce FX is one of the most quiet running cards they've ever produced. [/b:1b0b39ecbb]Borrowing technology from their mobile parts and combining it with the FX Flow cooling system, NVIDIA is able to dynamically reduce the speed of the fan based on the graphical needs of the system. When sitting in a 2D situation the card will scale back the clock speed of parts of the 3D pipeline that aren't in use, thus allowing the fan to spin much slower. As soon as you start using the GPU for games or any other 3D intensive applications, the clock speeds up as does the fan. The idea is that if you're gaming you're not as concerned with noise as when you are typing in Word.
    [b:1b0b39ecbb]NVIDIA's FX Flow technology supports a wide range of speed levels to run the fan at; at its loudest the fan is no louder than a noisy Ti 4600.[/b:1b0b39ecbb] [/quote:1b0b39ecbb]

    Hij is dus stil maar kan ook op een hogere stand worden gezet voor de OCers onder ons :)
    erg mooie uitvinding deze cooler IMHO

    Er zit ook een extra power aansluiting op net als bij de Ati Radeon 9700 pro

    [quote:1b0b39ecbb]
    Just like ATI's Radeon 9700 Pro, the GeForce FX will require a HDD/FDD power connector to operate. If you fail to connect a power cable the card will still work, just at a lower speed and it will display an error on your screen.[/quote:1b0b39ecbb]
  • [quote:820fa71d3b="SkinnerEd"]

    Ja dat is waarschijnlijk de reden dat ze het met 128 bits mem. interface afkonden, ook al is het sneller DDRII, theoretisch heeft de R9700 19 Gb/sec en de GFFX 16 Gb/sec, maar mbv deze techniek kan de effectieve of misschien beter gezegd, benodigde bandbreedte, resp. flink toenemen of flink afnemen, waarbij bij de laatste ook de benodigde fillrate flink lager kan liggen.

    Nou maar weer wachten….. :cry:[/quote:820fa71d3b]

    Ik hoop dat nVidia met deze kaart waar maken wat ze vandaag allemaal beloven, dat de Radeon 9700 theoretisch meer bandbreedte heeft zegt helemaal niets, de Matrox Parhelia heeft ook 18 gb/sec aan bandbreedte en is nog langzamer dan een Ti4600 met zijn 10,4gb/sec.

    Het is wachten op de eerste echte reviews eer we het zeker weten.

    maar wat ik allemaal lees belooft erg veel. ik kan haast niet wachten

    de ANISO en FSAA moet ook sterk zijn verbeterd, zeker de Aniso nu ze ATI's trucje ook kunnen:

    [quote:820fa71d3b]NVIDIA has made giant steps forward where performance and image quality are concerned. Thanks to its adaptive anisotropic filtering technique and the fast trilinear filter, the performance penalties of a GeForce4 Ti4600 should be a thing of the past. Another positive aspect is that the user still has full control over the filter settings, making it possible to switch back to "classical" filtering techniques any time. In FSAA, the GeForceFX should be superior to the Radeon 9700 PRO, since color compression should give it a major performance boost, in turn allowing for much higher sample rates[/quote:820fa71d3b]

    maar ja. eerst nog 3 maanden wachten :(

  • [quote:56c02c4e8a="Red Dragon"]

    dat de Radeon 9700 theoretisch meer bandbreedte heeft zegt helemaal niets, de Matrox Parhelia heeft ook 18 gb/sec aan bandbreedte en is nog langzamer dan een Ti4600 met zijn 10,4gb/sec.

    [/quote:56c02c4e8a]
    Ja dat bedoel ik, de mate van Z-compressie, colorcompressie en soort van hsr zullen de uiteindelijke effectie bandbreedte bepalen.
    Erg interresant dat de techniek van GigaP is opgenomen.

    Wat de Parhelia betreft, die heeft geloof ik alleen early Z-compressie , bovendien mist de P de fillrate van een GF4 met engines to 2-textures.

    Beetje onduidelijk nog wanneer hij verkrijgbaar is, sommigen spreken over beperkte levering voor Kerst, anderen over Feb :cry:
  • [quote:c19e3414e6="SkinnerEd"]
    Ja dat bedoel ik, de mate van Z-compressie, colorcompressie en soort van hsr zullen de uiteindelijke effectie bandbreedte bepalen.
    Erg interresant dat de techniek van GigaP is opgenomen.

    Wat de Parhelia betreft, die heeft geloof ik alleen early Z-compressie , bovendien mist de P de fillrate van een GF4 met engines to 2-textures.
    [/quote:c19e3414e6]

    Juist, dan bedoelen we het zelfde, jamer dat er nog zo weinig bekent is over LMAIII alleen dan de 4:1 color compression engine, improved fast z-clear en een verbeterde Z-Buffer clear (Fast Z-clear). ik hoop dat dit voldoende is. laat maar komen die reviews :)

    [quote:c19e3414e6="SkinnerEd"]Beetje onduidelijk nog wanneer hij verkrijgbaar is, sommigen spreken over beperkte levering voor Kerst, anderen over Feb :cry:[/quote:c19e3414e6]

    Ik denk zelf Feb 2003, dat hou ik voor mezelf ook aan, zolang hou ik het nog wel uit met me ti 4400 en jij met je Radeon 9700 pro.

    waar ik wel bang voor ben dat in feb 2003 Ati ook al met ze R350 op dr proppen komt, en dan moet ik weer wachten :cry: (ik ken mezelf)
  • [quote:556b803d9d="Slashhead"]Dus toch nog 3dfx spul :D

    my old love ;)[/quote:556b803d9d]
    Ik heb er ook nog een in m'n oude AMD-K6-2 500MHz :P
    Die lijst ik in als ie dood is :lol:
  • The inclusion of the ‘[b:798f76baa4]FX[/b:798f76baa4]’ on the end was from two areas. First off, NVIDIA are touting this as “The Dawn of Cinematic Computing” so film Special Effects goes with the name. Secondly, this is the first design that the former 3d[b:798f76baa4]fx[/b:798f76baa4] engineers have had serious input into an NVIDIA design, and so in some senses its homage to their input
  • Ik zie nu pas dat er een aparte GeForce FX topic is, vandaar effe nogmaals die specs die wij van nVidia hadden ontvangen (paar maanden terug):

    [i:e5b9d3a8e2]NV10= 4.8
    NV20= 13.2
    NV30= 64.0
    R300= 30.7

    NV30 = 500Mhz x 128bits * 4 for color & Z compression -> 64 GB/sec b/w for antiliasing
    R300 = 300Mhz x 256bits * 1.6 for Z compression -> 30.7 GB/sec b/w for 4xAA

    NV30 has Z compression and color compression
    R300 only has Z compression

    For 4x anti-aliasing, each AA sample has 32 bits of color and 32 bits of Z data…so each pixel has 256 bits of data (128 color, 128 Z)

    NV30 compresses all 256 bits by 4:1, so NV30 only reads or writes 64 bits
    R300 compresses half the bits by 4:1, so R300 reads or writes 160 bit (128 + 128*.25)

    Every time R300 reads or writes a pixel, it consumers 2.5x (160/64 = 2.5) as much raw bandwidth as NV30 requirs to do the same task

    NV30's memory interface is 2.5x as effcient as R300

    NV30 has more raw fill rate
    - NV30 = 8pipes x 400Mhz -> 3.2 billions pixels/sec
    - R300 = 8pipes x 300Mhz -> 2.4 billions pixels/sec

    NV30 has a superior shader architecture
    - NV30 support long pixel shader programs (up to 1024 instructions; R300 is limited to 160 instructions)
    - NV30 supports conditional branching in the vertrex shader; R300 doesn't
    - NV30 goes beyond DX9 shading capabilities; R300 doesn't[/i:e5b9d3a8e2]

    Leuk om te zien dat aantal zaken goed overeen komen
  • Zeer interressante stof op beyond3d in het forum, nV claimt 48-60 gb/sec bandbreedte, alleen kan niemand dit verklaren of goed herleiden, hoe kan dat nou ;)

    Volgens mij valt er nog heel veel over de FX te weten te komen en weten we nog lang niet alle details, zoals de defenitieve kloksnelheid, z-compressieverhouiding ect…want pas na de becnhmarks kan worden bewezen dat de 48-60 gb evt gehaald wordt..
  • Ik vind het een lelijke kaart met een super lelijk koelsysteem erop ik hoop toch echt dat andere merken hun kaarten mooier gaan maken!!
    Wat zou het budget model kosten en wat zou de ultra gaan kosten???
    Zou een 400 watt voeding genoeg??

    Greetz Mob :D
  • //Mobfigure

    De cooler is misschien wel lelijk maar heel erg effectief, lees maar eens wat ik boven gepost heb.
    Dit is overigens een nVidia Reference design, de coolers en het uiterlijk van de definitieve versies van de kaarten bakkers kan er heel ander uit gaan zien, echter hoop ik wel dat ze de zelfde techniek gebruiken.

    Uiteindelijk boeit het uiterlijk niet, het gaat er tenslote om dat de kaart snel en goed is, hij zit toch in je kast, je ziet hem maar 2x als het goed is. 1x als je hem plaatst en 1x als je hem vervangt.

    reken voor de Ultra uivoering maar gerust 550 a 600 Euro.

    //Vtec

    Leuk om die oude specs nog eens te zien, veel komt inderdaad overeen met wat nvidia nu geeft aan specs. nu nog zien of ze die theoretische bandbreedte kunnen waarmaken.

    //Skinnered

    Hij blijft gewoon afwachten, wat ik mij afvraag is ook hoe goed de GeForce FX er zich van af brengt, een R350 met DDRII is namelijk volgens mij ook zo gemaakt door ATI en zal een zware slag betekeken als ATI die van het voorjaar al op de markt zet.
  • [quote:445db5fefb="MobFigure"]Ik vind het een lelijke kaart met een super lelijk koelsysteem erop ik hoop toch echt dat andere merken hun kaarten mooier gaan maken!!
    Wat zou het budget model kosten en wat zou de ultra gaan kosten???
    Zou een 400 watt voeding genoeg??

    Greetz Mob :D[/quote:445db5fefb]

    Ik vind die koeling ook niet echt mooi, maar effectief is het wel.
  • Ik vind voornamelijk de naam lelijk :)
  • [quote:452f6e2585="VTec"]Ik vind voornamelijk de naam lelijk :)[/quote:452f6e2585]

    dat is dan een overeenkomst voor jou ;)

    maar je heb gelijk, een nieuwe naam was leuker geweest, maar Marketing technische gezien ook wel weer logisch.

Beantwoord deze vraag

Dit is een gearchiveerde pagina. Antwoorden is niet meer mogelijk.