Op deze website gebruiken we cookies om content en advertenties te personaliseren, om functies voor social media te bieden en om ons websiteverkeer te analyseren. Ook delen we informatie over uw gebruik van onze site met onze partners voor social media, adverteren en analyse. Deze partners kunnen deze gegevens combineren met andere informatie die u aan ze heeft verstrekt of die ze hebben verzameld op basis van uw gebruik van hun services. Meer informatie.

Akkoord

Vraag & Antwoord

Moederborden, processors, overklokken, casemodding en koeling

processor te veel laten werken ???

computerbacterie
18 antwoorden
  • ik vroeg mijn af of het mogelijk is om je processor te overwerken. je heb namelijk van die proggie's die zorgen dat je computer 100% zijn processor contiune gebruikt. maar als je dat zeg maar een week 24 uur per dag doet. is dat schadelijk voor je processor of niet??? ik heb niks overklokt of zo en ik neem aan dat er een goede koeler op me processor zit. ik zelf zou zeggen van hij is er voor gemaakt. maar ik heb op dat gebied er weinig verstand van dus.
  • Wat is de reden dat je de cpu 24/7 100% aan het werk wil hebben? Is dit voor een experiment ofzo, want je computer wordt daardoor erg traag als je er verder nog mee wil werken.
  • Mijn pc draait 24/7 100% met een distributedclient, nergens last van (behalve zweetvoeten onder m'n bureau).
  • Kan absoluut geen kwaad, ding is er gewoon voor gemaakt. Ik heb mijn procs wel vaker meerdere dagen achter elkaar continue 100% draaien.

    Overwerken bestaat btw wel min of meer. Met een fork-bom krijgt hij zoveel requests dat ie het niet meer trekt en de boel crasht dan.
  • Kwaad kan het idd niet echt, mits er een goede koeler op je processor zit. Houd er wel rekening mee dat een moderne processor (P4, AthlonXP) het nodige aan stroom verbruikt als ie 24/7 aanstaat. (35-65 Watt) Daarbij komt dan nog het stroomverbruik van de rest van je PC. Reken op een kleine 100 Watt continu verbruik (zonder monitor) als ie heel de dag 'iets' staat te doen. Dat zie je terug in je energie rekening.
  • Ik meen dat harddisks hier wel problemen mee kunnen hebben. Deze zijn gebaseerd op iets van vijf uur per dag draaien. Draaien ze (veel) meer, dan komen ze duidelijk vroeger aan hun eind. Geldt meer voor IDE schijven, SCSI schijnt meer geschikt te zijn voor volcontinu bedrijf.
  • [quote:0130f3ac39="gerben"]Ik meen dat harddisks hier wel problemen mee kunnen hebben. Deze zijn gebaseerd op iets van vijf uur per dag draaien. Draaien ze (veel) meer, dan komen ze duidelijk vroeger aan hun eind. Geldt meer voor IDE schijven, SCSI schijnt meer geschikt te zijn voor volcontinu bedrijf.[/quote:0130f3ac39] Ik denk dat goede kwaliteit schijven zowiezo langer mee kunnen gaan. deze zijn alleen fors duurder. En ja, dat zijn dan ook meestal SCSI schijven. Echter technisch gezien, moet het volgens mij net zo makkelijk zijn om een betrouwbare IDE schijf als een SCSI schijf te maken. Omdat bij Raid vaak minimaal 5 schijven worden gebruikt (als het om betrouwbaarheid gaat), is het grote voordeel van SCSI boven IDE dat de schijven op één kabel aangesloten kunnen worden. Met IDE wordt dat een heel gedoe met meer kabels en controllers.
  • [quote:974293b2ce="gerben"]Ik meen dat harddisks hier wel problemen mee kunnen hebben. Deze zijn gebaseerd op iets van vijf uur per dag draaien. Draaien ze (veel) meer, dan komen ze duidelijk vroeger aan hun eind.[/quote:974293b2ce]Er is ooit een document uitgelekt van IBM waarin idd een verwijzing stond naar een beperkt aantal draaiuren per dag ivm met de levensduur van IDE schijven. Dit betrof volgens mij de beruchte GXP(?) serie.

    Echter, 24/7 aanstaan en in vol bedrijf werken zijn 2 verschillende dingen. Idd zal een HD die de hele dag in vol bedrijf is ("continu bewegende koppen" zeg maar) wat sneller slijten omdat het een mechanische constructie is.

    Er is echter ook een discussie of het continu aan laten staan (dus niet persé vol bedrijf) van HD's etc. juist niet beter is voor de apparatuur ivm met uit- en inschakel spanningen die ook niet even gezond zijn.

    Voor processoren ligt dat weer wat anders. Daar heb je weer niet te maken met mechanische zwaktes.

    Distributed.net heeft een online FAQ waar op een aantal zaken ingegaan wordt mbt het 24/7 laten draaien van je PC:

    http://n0cgi.distributed.net/faq/cache/111.html
    http://n0cgi.distributed.net/faq/cache/110.html
    http://n0cgi.distributed.net/faq/cache/112.html
  • Dat was 8 uur per dag afair.
    Ik zou zeggen probeer het zelf, ik ken alleen maar mensen die er ellende mee hebben. 24/7 IDE schijven belasten, ze vielen bij bosjes dood die dingen.
  • na ten eerste ben een leek op hardeschijven gebied wat is het verschil tussen ide schijf en SCSI schijf ??? :oops: :oops:

    ten tweede als ik dit hier zo lees. blijk dus dat ik me computer niet eens 24 uur per dag aan kan laten staan of zie ik dat verkeerd ??? ik snap best dat dingen harder slijten als ze veel gebruikt worden. maar over hoe veel sneller slijten praat je dan ?? als voorbeeld een harde schrijf die bij normaal gebruik 5 jaar mee gaat. hoe snel is die nu guist dan? 2 jaar of 4 jaar ??
  • na ten eerste ben een leek op hardeschijven gebied wat is het verschil tussen ide schijf en SCSI schijf ??? :oops: :oops:

    zijn dat alleen een merk namen of zo ??? :oops: :oops:
  • Nee, het is een hele andere interface waarmee de HDD met de host chip communiceerd.
    Heel kort en krachtig het verschil: SCSI schijven zijn sneller, gaan langer mee en zijn duur :P

    90% oid van de mensen thuis heeft gewoon IDE schijven. Je kan je PC prima 24/7 aan laten staan, dat is echter wel wat anders dan een 100% load van 24/7. Als jouw PC gewoon aanstaat, zit die HDD uit zijn neus te vreten, als je een dataserver hebt waar elke minuut een paar honderd PC's om data komen jengelen, worden die HDD's natuurlijk wat minder blij :D
  • :) leuk geformuleerd marcel. Het is misschien ook wel handig als topic-starter uitlegt wat hij precies wil gaan doen. Waarom wil je je pc 24/7 aan hebben staan? Ik geloof niet dat je 100% CPU belasting gaat hebben, tenminste ik denk niet dat je dat bedoelt. Dus, leg even uit waarom je je vraag hebt gesteld.
  • Veel SCSI techniek vind uiteindelijk zijn toepassing in de IDE schijven. SCSI schijven hebben niet alleen een andere interface, maar gebruiken vaak ook modernene techniek van binnen. je zou IDE kunnen beschouwen als een soort budgetmodel. Overgigens gaan veel servers ed tegenwoordig toch naar IDE vanwege het prijsverschil, dus ik weet niet waar marcel vandaan haalt dat je geen ide in een dataserver kan stoppen :roll: Alleen heb je bij requests van veel pc's gewoon relatief een veel hogere performance, doordat de SCSI schijven, met name de 10K en 15K rpm varianten een veel lagere acces time hebben.

    Die 8 uur per dag was alleen een antwoord van IBM op de toenmalige onbetrouwbaarheid van hun schijven, verder is er geen enkele fabrikant die dat ooit geprobeerd heeft. Die onbetrouwbaarheid is eerder aan een ontwerpfout te danken als aan de rest van de IDE schijven. Tuurlijk hebben schijven uitval, maar dat heeft elk computeronderdeel. SCSI heeft ook uitval, alleen hoor je daar minder van omdat het gewone publiek ze niet gebruikt. GoT heeft bijvoorbeeld ook al eens plat gelegen doordat de SCSI schijf van hun forumdatabase plat ging. Kan dus altijd gebeuren, IDE of SCSI.
  • SCSI Raid is vaak ook hot-swappable uitgevoerd. Dat is ook noodzakelijk omdat anders bij een HD crash de schijf niet gewisseld kan worden zonder het systeem uit te zetten. Verder denk ik dat een ander sterk punt van SCSI de bekabeling is waarop veel apparaten (7-15 afhankelijk van de SCSI bus) kunnen worden aangesloten. Een goede kabel kan onder bepaalde omstandigheden 50 tot 100 meter lang zijn. Dat betekent dat de schijven eventueel in een andere ruimte kunnen worden geplaatst dan de normale computer apparatuur.
  • Omdat ik iemand ken met een high load data center die na 3 maanden 5 dode IDE schijven had. SCSI schijven hadden geen enkel probleem ermee.

    SATA is btw ook hotswappable dus dat voordeel heeft IDE nu iig ook
  • En dus? Omdat die persoon toevallig 5 stukke IDE schijven had is IDE daar niet geschikt voor? Kort door de bocht imho. Dat zegt nog niet dat IDE schijven daar totaal niet geschikt voor zijn. Kan net zo goed aan zijn eigen setup liggen, om maar eens een voorbeeld te noemen. Zeker als ze allemaal van 1 type waren zegt dat dus niks over de rest van de IDE range.

    Dat is het hetzelfde als zeggen dat een merk CPU klote is omdat toevallig al 3 mobo's van het zelfde type stuk gegaan zijn.
  • Dat is absoluut waar en ik weet niet of het 5 dezelfde schijven waren. Maar SCSI trok het wel (los kaartje) op dezelfde setup en ik heb nog nooit een highload datacenter op IDE zien draaien.
    Je zou het eigenlijk moeten testen, maar volgens mij houdt een IDE schijf 100% 24/7 belasting hooguit een paar maanden vol. Dat mijn voorbeeld niet afdoende bewijs daarvoor is, klopt natuurlijk.

Beantwoord deze vraag

Dit is een gearchiveerde pagina. Antwoorden is niet meer mogelijk.