Bonjour,
J'ai un petit souci de comprenette sur le sujet ..
Si je fais :
Code :
- float f = 3 / 2; // ça donne 1
|
donc là on a divisé 2 int puis converti en float
Maintenant :
Code :
- unsigned char a = 0xAA, b = 0x55, c = 0xAA, d = 0x55;
- int n = a | (b << 8) | (c << 16) | (d << 24);
|
Et là n est correct dans le sens où il vaut : 0xAA55AA55
Mais j'avoue ne pas être sûr de comprendre ...
car on dirait qu'au niveau conversion les chars ont été converti en int pendant ou avant le décalage puis les OU ont été appliqués.
si quelqu'un a un lien sur ces conversions ..
Merci.
Message édité par cricri_ le 16-03-2007 à 09:22:23