Je dirais : suffisement faible pour ne pas à avoir à s'en préoccuper pour quasi toutes les applications.
Pour faire les calculs, tu dois prendre en compte toutes les défaillances possible, et calculer leur probabilité d'apparition à partir des données de fiabilité des fabriquants (il existe des listes pour des composants "standard" : résistances, relais (heu dans un PC y'en a pas beaucoup...), etc,...). Bonne chance pour un PC
Tu as la possibilité aussi il me semble d'évaluer une probabilité de fonctionnement correct à partir de l'expérience (si tu fais tourner ton bazar 10 ans sans erreur, alors tu peux affirmer que t'as un p'tit 10-1/an de probabilité de défaillance...).
Pour les applications pour lesquelles cette information est importante, on cherche généralement des probabilités de défaillance non détectées très faibles, on rajoute donc du code de vérification, on fait faire le calcul deux fois sous deux formes différentes au processeur (genre une fois en utilisant des instructions sur les entiers, l'autre coup en utilisant les instructions sur les flottants, quand c'est possible). On peut faire faire le calcul deux fois à deux processeurs de conception différentes (un x86 et un PPC, par exemple).
La fiabilité va dépendre aussi de ta conception logicielle (bug = mauvaise fiabilité). Il existe des normes qui imposent des méthodologies de développement pour obtenir certaines fiabilités de fonctionnement.
Si on reste sur ton exemple, la probabilité d'apparition d'une défaillance de cellule mémoire RAM préalablement testée OK de PC classique doit être assez faible en environnement "normal" (= changement de valeur d'une cellule mémoire) (si t'arrives à trouver des chiffres chez les constructeurs, fais tourner).
Après, si tu tourne en environnement chaud (radiations), j'suis pas sur qu'un PC standard apprécie longtemps
Sujet interessant mais question un peu hardcore pour démarrer