
La recherche vectorielle pour les devs web : claire, utile, et bluffante
Une explication simple et concrète de la recherche vectorielle appliquée aux sites web. Pour les devs web qui veulent comprendre et prendre de l'avance.
Depuis 20 ans, on construit des sites web qui cherchent des mots.
SELECT * FROM articles WHERE content ILIKE '%massage%'
Mais depuis peu, on peut construire des sites web... qui cherchent du sens.
Et quand j’ai découvert à quel point c’était simple à implémenter (et puissant à l’usage), j’ai compris que ça allait redéfinir beaucoup de choses --- dans la façon dont on code, mais aussi dans la façon dont on conçoit l’expérience utilisateur.
Note : Cet article est destiné aux développeurs web, designers, fondateurs, ou curieux qui veulent comprendre ce que c’est, voir à quoi ça sert concrètement, et l’utiliser intelligemment (sans se noyer dans le hype IA).
Petit historique express
Non, ce n’est pas si nouveau.
Les premières idées de "modèle vectoriel" en recherche d'information remontent aux années 1970. Mais la vraie révolution, c’est quand on a commencé à représenter du texte par son sens, et non par ses mots.
Pas avec des mots-clés. Avec des vecteurs.
Et ça, c’est devenu possible grâce à l’arrivée des modèles d’IA comme BERT (Google, 2018), GPT (OpenAI, 2019+), et plus récemment, les modèles d’embedding puissants comme text-embedding-3-large
.
Une recherche vectorielle, c’est quoi exactement ?
C’est une méthode pour retrouver des contenus proches d’une requête, non pas par correspondance exacte de mots, mais par proximité de sens.
Une phrase comme “Est-ce que je dois boire après un soin ?” peut faire ressortir “Je recommande de bien s’hydrater après un massage.”
Aucun mot identique. Mais le sens est le même. Et la machine l’a compris.
Bluffant ? Oui. Et en plus, accessible techniquement.
Comment ça marche côté dev (version claire)
-
Chaque texte est transformé en vecteur numérique (embedding) → 3072 chiffres si tu utilises le modèle
text-embedding-3-large
-
Ce vecteur est stocké en base (genre PostgreSQL avec l’extension
pgvector
) -
Lorsqu’un utilisateur pose une question, elle aussi est embeddée → Et on cherche les vecteurs les plus proches (cosine similarity, distance euclidienne...)
-
On renvoie les contenus les plus "compatibles sémantiquement" → Puis, éventuellement, un GPT les reformule joliment.
Et tout ça peut tourner en quelques millisecondes.
Où on la retrouve déjà ?
Tu l’utilises peut-être sans le savoir :
- YouTube → suggestions de vidéos
- Spotify → recommandations musicales
- ChatGPT / Notion AI / Perplexity → recherche hybride
- Amazon / Shopify → produits similaires
- Chatbots intelligents → réponses contextuelles en SAV ou assistant
Et pour un site web d’entreprise ?
Quelques exemples simples et concrets :
- Une entreprise de services peut construire une FAQ intelligente qui comprend les formulations variées des clients
- Un e-commerce peut répondre à : “Ce pull tient-il chaud en hiver ?”
- Une agence peut intégrer un assistant qui comprend les requêtes techniques même mal formulées
- Un site de contenu peut retrouver les bons articles, même sans mots-clés précis
Et tout ça, sans ElasticSearch, sans NLP maison.
Juste :
- OpenAI pour les embeddings
pgvector
pour le stockage- Une requête SQL bien pensée
Attention : Ce n’est pas magique. Il faut bien penser son schéma, son fallback, et les seuils de confiance. Mais c’est incroyablement puissant une fois bien en place.
Pourquoi je l’ai intégré dans mes projets
Je construis des assistants IA pour des entreprises (et parfois pour des humains qui veulent laisser une trace).
Dans ces projets, les gens ne cherchent pas des mots. Ils cherchent des réponses, du sens, une vraie interaction.
Et le jour où j’ai branché ma base vectorielle et vu un assistant répondre correctement à une question jamais vue auparavant, j’ai su que je ne voulais plus revenir en arrière.
Ce que ça change vraiment
- Tu ne codes plus des filtres par mot, tu codes une compréhension.
- Tu ne classes plus par “tags”, tu classes par intention.
- Tu ne t’arrêtes pas à l’UX visuelle, tu construis une UX intelligente.
Et ça ne demande pas 6 mois de R&D. Ça demande d’oser intégrer une couche sémantique dans ce qu’on conçoit.
Pour ceux qui veulent tester
Si tu sais faire une requête SQL, tu peux implémenter une recherche vectorielle cette semaine.
Quelques outils clés :
Et si tu veux voir comment je l’ai intégré dans mes assistants, viens me parler.
Construire aujourd’hui avec des vecteurs, c’est comme avoir utilisé le responsive design en 2012 :
Ça te place juste un peu en avance... mais bientôt, tout le monde s’y mettra.
Articles liés
Le trafic web s’effondre. Les clics disparaissent. Google s’en fout. Et maintenant ?
Le trafic web s'effondre, Google s'en lave les mains. Voici ce que ça implique --- et pourquoi ne rien faire n’est plus une option.
J’ai codé SocialRally pour hacker l’attention.
Les réseaux filtrent. Les gens ne cliquent plus. J’ai créé un outil que l’algo ne peut pas bloquer : des défis, des points, des partages. Du vrai engagement. Une plateforme conçue pour défier l’algorithme.
Marie Fa
Développeuse full-stack québécoise installée à Bacalar, je navigue entre eau turquoise et lignes de code.
Fondatrice de Murmure, SocialRally et Adorable Sailing.