Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1949 connectés 

  FORUM HardWare.fr
  Programmation
  SQL/NoSQL

  [SQL] une seule requête au lieu de deux...

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[SQL] une seule requête au lieu de deux...

n°1750500
carborom
Posté le 24-06-2008 à 10:17:52  profilanswer
 

Bonjour,
 
j'ai actuellement deux tables.
 

Code :
  1. mysql> desc log;
  2. +-----------+---------------------+------+-----+-------------------+----------------+
  3. | Field     | Type                | Null | Key | Default           | Extra          |
  4. +-----------+---------------------+------+-----+-------------------+----------------+
  5. | ID        | int(10) unsigned    |      | PRI | NULL              | auto_increment |
  6. | TIMESTAMP | timestamp           | YES  |     | CURRENT_TIMESTAMP |                |
  7. | USED      | int(11)             |      |     | 0                 |                |
  8. | MSG_ID    | tinyint(3) unsigned |      |     | 0                 |                |
  9. +-----------+---------------------+------+-----+-------------------+----------------+
  10. 4 rows in set (0.00 sec)


Id n'a pas besoin de description il me semble. Timestamp non plus.
Used est un pourcentage qui peut donc varier entre 0 et 100 (oui, je sais, tinyint)
et Msq_id peut être considéré comme une clé étrangère de la table Msg.
 

Code :
  1. mysql> desc msg;
  2. +--------+--------------+------+-----+---------+-------+
  3. | Field  | Type         | Null | Key | Default | Extra |
  4. +--------+--------------+------+-----+---------+-------+
  5. | MSG_ID | int(11)      |      | PRI | 0       |       |
  6. | MSG    | varchar(150) |      |     |         |       |
  7. +--------+--------------+------+-----+---------+-------+
  8. 2 rows in set (0.00 sec)


Bon bah là, c'est clair, pas besoin d'explications.
 
Le but est de récupérer le dernier MSG et le USED pour chacun des MSG de la table MSG.
 
Exemple:

Code :
  1. mysql> select * from msg;
  2. +--------+--------------------------+
  3. | MSG_ID | MSG                      |
  4. +--------+--------------------------+
  5. |      1 | Database error           |
  6. |      2 | Invalid or bad arguments |
  7. +--------+--------------------------+
  8. 2 rows in set (0.00 sec)
  9. mysql> select * from log;
  10. +----+---------------------+------+--------+
  11. | ID | TIMESTAMP           | USED | MSG_ID |
  12. +----+---------------------+------+--------+
  13. |  1 | 2008-06-24 10:08:03 |   19 |      1 |
  14. |  2 | 2008-06-24 10:08:11 |   29 |      2 |
  15. |  3 | 2008-06-24 10:08:18 |   87 |      2 |
  16. |  4 | 2008-06-24 10:08:44 |   50 |      1 |
  17. |  5 | 2008-06-24 10:08:35 |   90 |      2 |
  18. |  6 | 2008-06-24 10:08:28 |   99 |      1 |
  19. +----+---------------------+------+--------+
  20. 6 rows in set (0.00 sec)


 
Dans ce cas, il faut que je récupère un truc du genre

Code :
  1. +--------------------------+------+
  2. | MSG                      | USED |
  3. +--------------------------+------+
  4. | Database error           |   50 |
  5. | Invalid or bad arguments |   90 |
  6. +--------------------------+------+


 
Le MSG et non le MSG_ID, ainsi que le dernier USED pour chacun des MSG.
Bien sûr, il faut que cette requête reste opérationnelle lors de l'ajout d'un MSG dans la table MSG (pas de "limit 2" ;) )
 
Actuellement, je fais ça en deux requêtes, mais vu le contenu important des deux tables, chaque parcours est assez couteux,
donc j'aimerais le faire si possible en une seule requête.

mood
Publicité
Posté le 24-06-2008 à 10:17:52  profilanswer
 

n°1750512
Harkonnen
Modérateur
Un modo pour les bannir tous
Posté le 24-06-2008 à 10:40:21  profilanswer
 

Code :
  1. SELECT MSG, USED, MAX(TIMESTAMP) FROM MSG INNER JOIN LOG ON MSG.ID = LOG.MSG_ID GROUP BY MSG, USED


Message édité par Harkonnen le 24-06-2008 à 10:40:45

---------------
J'ai un string dans l'array (Paris Hilton)
n°1750522
carborom
Posté le 24-06-2008 à 10:50:05  profilanswer
 

Code :
  1. mysql> SELECT MSG, USED, MAX(TIMESTAMP) FROM MSG INNER JOIN LOG ON MSG.MSG_ID = LOG.MSG_ID GROUP BY MSG, USED;
  2. +--------------------------+------+---------------------+
  3. | MSG                      | USED | MAX(TIMESTAMP)      |
  4. +--------------------------+------+---------------------+
  5. | Database error           |   19 | 2008-06-24 10:08:03 |
  6. | Database error           |   50 | 2008-06-24 10:08:44 |
  7. | Database error           |   99 | 2008-06-24 10:08:28 |
  8. | Invalid or bad arguments |   29 | 2008-06-24 10:08:11 |
  9. | Invalid or bad arguments |   87 | 2008-06-24 10:08:18 |
  10. | Invalid or bad arguments |   90 | 2008-06-24 10:08:35 |
  11. +--------------------------+------+---------------------+
  12. 6 rows in set (0.00 sec)


 
C'est presque ça, sauf que je veux uniquement le dernier enregistrement pour chaque MSG.
Or, à cause du USED qui varie tout le temps, on ne peut pas utiliser le DISTINCT.

n°1750541
couak
Posté le 24-06-2008 à 11:14:06  profilanswer
 

http://dev.mysql.com/doc/refman/5. [...] p-row.html
si on part du principe que ton dernier enregistrement c'est TIMESTAMP, alors la logique mysql te donnerait ca :

Code :
  1. select
  2.   m.msg,
  3.   l.used,
  4.   l.timestamp
  5. from
  6.   msg m,
  7.   log l
  8. where
  9.   timestamp=
  10.   (
  11.     select max(timestamp)
  12.     from log l2
  13.     where l2.msg_id=m.msg_id
  14.   );


j'aime pas trop mais bon si c'est ce qu'ils préconisent...

n°1750557
carborom
Posté le 24-06-2008 à 11:27:22  profilanswer
 

Et bien merci, ça a l'air de fonctionner :)
Même si je suis pas fan de ce genre de requêtes, au moins ça marche.

n°1754199
MagicBuzz
Posté le 01-07-2008 à 18:59:45  profilanswer
 

bah même si t'es pas fan, c'est la seule solution standard qui existe ;)

n°1754402
carborom
Posté le 02-07-2008 à 09:39:38  profilanswer
 

Je suis pas fan, car celà implique l'utilisation d'un subselect,
or je ne suis pas assuré que le "produit" soit installé systématiquement sur une version MySQL supérieure à la 4.1

n°1754408
avander
Posté le 02-07-2008 à 09:51:45  profilanswer
 

y'a peut-être moyen de le faire en une fois avec le 'hack' du substring en mysql... on en parlait dans ce topic et c'est la solution que j'ai adopté finalement.


Message édité par avander le 02-07-2008 à 09:54:04
n°1754530
carborom
Posté le 02-07-2008 à 13:13:50  profilanswer
 

Effectivement, j'ai simulé 50000 enregistrements dans ma table principale,
et je kill le process mysql au bout de 2 min de dépit
lorsque la requete est faite avec une sous requete.
 
Alors qu'avec la méthode du substring, ça ne met que 2 sec :)

n°1754609
carborom
Posté le 02-07-2008 à 15:52:10  profilanswer
 

Premièrement, voici les deux tables de test : http://pastebin.com/f23086f34
 
Et voici le script pour remplir les deux tables : http://pastebin.com/f708b2df3
 
Les résultats (query_cache=0 sur MySQL 4.1.20) pour (seulement) 5000 lignes dans la table log :
 

Code :
  1. SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2. FROM `msg` INNER JOIN `log` as l USING (`MSG_ID`)
  3. WHERE `TIME` = (SELECT MAX(l1.`TIME`) FROM `log` AS l1 WHERE l1.`MSG_ID` = l.`MSG_ID`)
  4. ORDER BY LENGTH(`MSG`), `MSG`;

10 rows in set (1 min 31.95 sec)
 

Code :
  1. SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2. FROM `msg`, `log` as l
  3. WHERE `msg`.`MSG_ID` = l.`MSG_ID` AND
  4.   ROW(l.`MSG_ID`, l.`TIME`) IN ( SELECT `MSG_ID`, MAX(`TIME`)
  5.                                  FROM `log`
  6.                                  GROUP BY `MSG_ID`)
  7. ORDER BY LENGTH(`MSG`), `MSG`;

10 rows in set (1 min 49.53 sec)
 

Code :
  1. SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2. FROM `msg`, `log` as l
  3. WHERE `msg`.`MSG_ID` = l.`MSG_ID` AND
  4.     `TIME` = ( SELECT l1.`TIME`
  5.                FROM `log` as l1
  6.                WHERE l1.`MSG_ID` = l.`MSG_ID`
  7.                ORDER BY l1.`TIME` DESC
  8.                LIMIT 1)
  9. ORDER BY LENGTH(`MSG`), `MSG`;

10 rows in set (7.20 sec)
 

Code :
  1. SELECT `MSG`, SUBSTR(MAX(CONCAT(`TIME`,CONCAT_WS('-', `USED_1`, `USED_2`, `USED_3`))), LENGTH(`TIME`)+1) AS USED
  2. FROM `msg`, `log` as l
  3. WHERE `msg`.`MSG_ID` = l.`MSG_ID`
  4. GROUP BY `msg`.`MSG_ID`;

10 rows in set (0.19 sec)
 
La même sur 50000 lignes dans la table log :
10 rows in set (1.83 sec)
 
Mon choix est fait :-)

mood
Publicité
Posté le 02-07-2008 à 15:52:10  profilanswer
 

n°1754619
MagicBuzz
Posté le 02-07-2008 à 16:13:47  profilanswer
 

si c'estaussi lent avec la sous-requête, c'est qu'il y a un problème dans ta requête ou tes index. normalement le plan d'exécution ne tiens pas compte de la sous-requête
genre, y'a un index (msg_id, time) dans ta table ?
 
bon, ceci dit, c'est une 4.1.2... vu que ça venait d'être implémenté, ils n'avaient peut-être pas encore fait les optimisations. mysql faut l'utiliser à partir de la 5 quand on fait du SQL "standard". avant, effectivement sorti des bidouilles y'a pas trop moyen de faire des requêtes correctes


Message édité par MagicBuzz le 02-07-2008 à 16:16:10
n°1754627
carborom
Posté le 02-07-2008 à 16:29:45  profilanswer
 

Les tables sont crées telle que décrit dans le script, donc pas d'index.
 
Et les résultats sont les mêmes sur une MySQL 5.0.51b ;)
 
-- Edit --
 

Code :
  1. mysql> EXPLAIN SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2.     -> FROM `msg` INNER JOIN `log` as l USING (`MSG_ID`)
  3.     -> WHERE `TIME` = (SELECT MAX(l1.`TIME`) FROM `log` AS l1 WHERE l1.`MSG_ID` = l.`MSG_ID`)
  4.     -> ORDER BY LENGTH(`MSG`), `MSG`\G
  5. *************************** 1. row ***************************
  6.            id: 1
  7.   select_type: PRIMARY
  8.         table: l
  9.          type: ALL
  10. possible_keys: NULL
  11.           key: NULL
  12.       key_len: NULL
  13.           ref: NULL
  14.          rows: 50000
  15.         Extra: Using where; Using temporary; Using filesort
  16. *************************** 2. row ***************************
  17.            id: 1
  18.   select_type: PRIMARY
  19.         table: msg
  20.          type: eq_ref
  21. possible_keys: PRIMARY
  22.           key: PRIMARY
  23.       key_len: 8
  24.           ref: test.l.MSG_ID
  25.          rows: 1
  26.         Extra: Using where
  27. *************************** 3. row ***************************
  28.            id: 2
  29.   select_type: DEPENDENT SUBQUERY
  30.         table: l1
  31.          type: ALL
  32. possible_keys: NULL
  33.           key: NULL
  34.       key_len: NULL
  35.           ref: NULL
  36.          rows: 50000
  37.         Extra: Using where
  38. 3 rows in set (0.00 sec)


 

Code :
  1. mysql> EXPLAIN SELECT `MSG`, SUBSTR(MAX(CONCAT(`TIME`,CONCAT_WS('-', `USED_1`, `USED_2`, `USED_3`))), LENGTH(`TIME`)+1) AS USED
  2.     -> FROM `msg` INNER JOIN `log` USING (`MSG_ID`)
  3.     -> GROUP BY `msg`.`MSG_ID`\G
  4. *************************** 1. row ***************************
  5.            id: 1
  6.   select_type: SIMPLE
  7.         table: log
  8.          type: ALL
  9. possible_keys: NULL
  10.           key: NULL
  11.       key_len: NULL
  12.           ref: NULL
  13.          rows: 50000
  14.         Extra: Using temporary; Using filesort
  15. *************************** 2. row ***************************
  16.            id: 1
  17.   select_type: SIMPLE
  18.         table: msg
  19.          type: eq_ref
  20. possible_keys: PRIMARY
  21.           key: PRIMARY
  22.       key_len: 8
  23.           ref: test.log.MSG_ID
  24.          rows: 1
  25.         Extra: Using where
  26. 2 rows in set (0.00 sec)


 
C'est plutôt évident avec un EXPLAIN ;)


Message édité par carborom le 02-07-2008 à 16:34:15
n°1754640
MagicBuzz
Posté le 02-07-2008 à 17:21:14  profilanswer
 

c'est surtout évident que MySQL c'est de la merde :o
 
Création du jeu de test :

Code :
  1. CREATE TABLE msg
  2. (
  3.     id integer PRIMARY KEY NOT NULL,
  4.    label varchar(50) NOT NULL
  5. )
  6. go
  7.  
  8. INSERT INTO msg (id, label) VALUES (1, 'Database Error');
  9. INSERT INTO msg (id, label) VALUES (2, 'Invalid or bad arguments');
  10.  
  11. CREATE TABLE log
  12. (
  13.    id integer PRIMARY KEY NOT NULL,
  14.    ts datetime NOT NULL,
  15.    used tinyint NOT NULL,
  16.    msg_id integer NOT NULL
  17. )
  18. go
  19. ALTER TABLE log ADD constraint fk_msg FOREIGN KEY (msg_id) REFERENCES msg(id)
  20. go
  21.  
  22. declare @i AS integer;
  23. SET @i = 1;
  24. while @i < 50000
  25. begin
  26.  INSERT INTO log (id, ts, used, msg_id) VALUES (@i, getdate(), rand() * 100, rand() * 2 + 1);
  27.  SET @i = @i + 1;
  28. end;


 
Test :

Code :
  1. declare @d1 AS datetime;
  2. SET @d1 = getdate();
  3.  
  4. SELECT
  5.  m.label,
  6.  l.used,
  7.  l.ts
  8. FROM
  9.  msg m,
  10.  log l
  11. WHERE
  12.  ts=
  13.  (
  14.    SELECT max(ts)
  15.    FROM log l2
  16.    WHERE l2.msg_id=m.id
  17.  );
  18.  
  19. print datediff(ms, @d1, getdate());


 
Sortie :


 
(48 ligne(s) affectée(s))
 
(1 ligne(s) affectée(s))
76


 
Sans index sur mon champ ts.
Sâchant qu'en plus j'ai un grand nombrede doublons (d'où les 48 lignes retournées, ce qui est normalement impossible, mais là ça vient de la création des lignes qui est trop rapide -avoir deux enregistrement dans la base à la même milliseconde, c'est pas de chance ;)-)
 
Donc 76 ms pour retrouver 48 lignes sans passer par un index parmi 50000, c'est pas mal... Le plan d'exécution (bien plus détaillé que celui de MySQL) n'indique pas de subquery mais que des jointures régulières
 
http://img392.imageshack.us/img392/1159/planpz2.png
 
SQL Server 2005 Express sur mon portable tout pourri qui swap à mort comme un con.


Message édité par MagicBuzz le 02-07-2008 à 17:26:00
n°1754645
MagicBuzz
Posté le 02-07-2008 à 17:32:20  profilanswer
 

En modifiant la requête (je prends id et non ts pour ne plus avoir de doublons) et en créant un index :
 

Code :
  1. CREATE UNIQUE INDEX ix_1 ON log (id, msg_id);
  2.  
  3. declare @d1 AS datetime;
  4. SET @d1 = getdate();
  5. SELECT  m.label,  l.used,  l.ts FROM  msg m,  log l WHERE  l.id=  (    SELECT max(id)    FROM log l2    WHERE l2.msg_id=m.id  );
  6. print datediff(ms, @d1, getdate());


 


 
(2 ligne(s) affectée(s))
 
(1 ligne(s) affectée(s))
30


 
(dans ton cas, l'index c'est sur timestamp, msg_id qu'il faut le créer)
 
impossible sous sql server de tester ta bidouille sans la sous-requête, mais voici une autre méthode ne nécessitant pas de sous-requête :
 

Code :
  1. declare @d1 AS datetime;
  2. SET @d1 = getdate();
  3.  
  4. SELECT m.label, l1.id, max(l2.id), l1.used
  5. FROM msg m
  6. INNER JOIN log l1 ON l1.msg_id = m.id
  7. INNER JOIN log l2 ON l2.msg_id = m.id
  8. GROUP BY m.label, l1.used, l1.id
  9. HAVING l1.id = max(l2.id)
  10.  
  11.  
  12. print datediff(ms, @d1, getdate());


 


 
(2 ligne(s) affectée(s))
 
(1 ligne(s) affectée(s))
63


 
http://img392.imageshack.us/img392/8880/plan2tf3.png
On voit qu'on rajoute une étape au MÊME plan d'exécution, du coup ça relenti tout
 
Bref : la méthode avec sous-requête est bien plus performante.


Message édité par MagicBuzz le 02-07-2008 à 17:41:34
n°1754646
carborom
Posté le 02-07-2008 à 17:36:17  profilanswer
 

Pourquoi détourner le problème vers SQL Server 2005 Express ?
 
On m'impose MySQL, on m'impose d'être rétro-compatible (minimum 4.0),
et je ne peux pas toucher à la structure de la table (la création d'index est exclue)
je n'ai ABSOLUMENT aucun intérêt à voir ce que donne la requête sur un autre gestionnaire de BDD ...
 
Ce que mon post précédent voulait dire c'est que pour certaines requêtes,
même si la solution "parait" évidente (l'utilisation de la sous-requête)
il vaut mieux tester dans un environnement "réel" ou s'y rapprochant le plus possible.


Message édité par carborom le 02-07-2008 à 17:37:43
n°1754650
MagicBuzz
Posté le 02-07-2008 à 17:44:39  profilanswer
 

c'est juste que moi je dis que je jette l'éponge quand il s'agit d'écrire une requête pour mysql.
 
sont pas foutus d'avoir un moteur de requête qui se comporte comme escompté... c'est limite pire qu'Oracle...

n°1754652
MagicBuzz
Posté le 02-07-2008 à 17:46:11  profilanswer
 

ps: et ne pas créer d'index sur ce genre de table, c'est du suicide... une table de log, ça peut rapidement contenir des millions d'enregistrement, mais leur ajout n'est pas suffisant pour pouvoir ralentir le système si la table est indexée. bref, tu vas effondrer le serveur lors des requêtes de selection, sans pour autant ne rien gagner sur l'exploitation générale

n°1754654
MagicBuzz
Posté le 02-07-2008 à 17:48:15  profilanswer
 

teste quand même ma solution sans sous-requête.
 
elle pourrait être performante, et au moins est standard...
 
bon, elle est performante dans une certaine mesure, vu qu'elle fait un produit cartésien sur log...
 
tout dépend ensuite de la façon donc mysql gère la clause having


Message édité par MagicBuzz le 02-07-2008 à 17:48:43
n°1754659
carborom
Posté le 02-07-2008 à 17:54:16  profilanswer
 

je refairais ptet les tests avec un index demain, juste pour voir :)
 
j'avais pas vu ta requête avec la having (même si elle était dans le post donné par avander)


Message édité par carborom le 02-07-2008 à 17:55:47
n°1754697
carborom
Posté le 02-07-2008 à 19:51:10  profilanswer
 

And the winner is ...

Code :
  1. SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2. FROM `msg`, `log` as l
  3. WHERE `msg`.`MSG_ID` = l.`MSG_ID` AND
  4.     `TIME` = ( SELECT l1.`TIME`
  5.                FROM `log` as l1
  6.                WHERE l1.`MSG_ID` = l.`MSG_ID`
  7.                ORDER BY l1.`TIME` DESC
  8.                LIMIT 1)
  9. ORDER BY LENGTH(`MSG`), `MSG`;


 
Couplé avec

Code :
  1. ALTER TABLE `log` ADD INDEX (`TIME`, `MSG_ID`)


Requête sur 100.000 enregistrements dans la table `log` en moins de 2 sec.
 
J'ai pourtant testé avec tout ces index là (certains résultats m'ont paru bizarre quand même)

  • ADD INDEX (TIME)
  • ADD INDEX (MSG_ID)
  • ADD INDEX (TIME, MSG_ID)
  • ADD INDEX (MSG_ID, TIME)
  • ADD INDEX (MSG_ID), ADD INDEX (TIME)


Et la requête avec un HAVING met 30 sec sur 5000 enregistrements,
ceci, peu importe l'index sur la table `log`.


Message édité par carborom le 02-07-2008 à 19:55:39
n°1754990
MagicBuzz
Posté le 03-07-2008 à 12:22:40  profilanswer
 

assez logique que la requête avec le having soit très lente, étant donné qu'elle se paluche un produit cartésien

n°1754998
carborom
Posté le 03-07-2008 à 12:31:40  profilanswer
 

Mais c'est pas la plus lente ;)
 
La requête "originale", celle qui me semblait la plus logique,
met entre 1 et 3 fois plus de temps -_-'
 
La requête en question (avec la sous-requête)

Code :
  1. SELECT `MSG`, `USED_1`, `USED_2`, `USED_3`
  2. FROM `msg` INNER JOIN `log` as l USING (`MSG_ID`)
  3. WHERE `TIME` = (SELECT MAX(l1.`TIME`) FROM `log` AS l1 WHERE l1.`MSG_ID` = l.`MSG_ID`)
  4. ORDER BY LENGTH(`MSG`), `MSG`;


 
Mais bon, je pense avoir trouvé le bon compromis :)


Message édité par carborom le 03-07-2008 à 12:32:21
n°1755004
MagicBuzz
Posté le 03-07-2008 à 12:36:27  profilanswer
 

normal, mysql gère assez mal les max().
 
en interne, il devrait aussi bien faire un limit + order by lorsqu'il n'y a pas de membres dans la clause group by
mais c'est clairement une optimisation qui est passée à la trappe !
 
le plus fun, c'est que la plus rapide et la plus lente sont strictement les mêmes à cette optimisation près ! il semble urgent que mysql pense à mettre en place cette optimisation ;)


Message édité par MagicBuzz le 03-07-2008 à 12:37:16
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Programmation
  SQL/NoSQL

  [SQL] une seule requête au lieu de deux...

 

Sujets relatifs
[ORACLE] problème requête (pour les chauds du SQL)Formulaire Php - Sql
Réduire une seule colonne d'un tableau[hibernate][RESOLU]insertion, update OK, lecture avec requete HQL KO
requete flux xml avec curl[Résolu] Requete Access
[SQL] Requete possible ?problème exécution de requête
Plus de sujets relatifs à : [SQL] une seule requête au lieu de deux...


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR