{"id":9912,"date":"2024-01-24T19:01:06","date_gmt":"2024-01-24T17:01:06","guid":{"rendered":"https:\/\/toukiela.com\/decouvrez-la-start-up-qdrant-et-sa-base-de-donnees-vectorielle-open-source-qui-vient-de-lever-28-millions-de-dollars\/"},"modified":"2024-01-24T19:01:07","modified_gmt":"2024-01-24T17:01:07","slug":"decouvrez-la-start-up-qdrant-et-sa-base-de-donnees-vectorielle-open-source-qui-vient-de-lever-28-millions-de-dollars","status":"publish","type":"post","link":"https:\/\/toukiela.com\/fr_ca\/decouvrez-la-start-up-qdrant-et-sa-base-de-donnees-vectorielle-open-source-qui-vient-de-lever-28-millions-de-dollars\/","title":{"rendered":"D\u00e9couvrez la start-up Qdrant et sa base de donn\u00e9es vectorielle open source qui vient de lever 28 millions de dollars !"},"content":{"rendered":"<p><em><\/em><\/p>\n<h2>Une lev\u00e9e de fonds de 28 millions de dollars pour Qdrant, la soci\u00e9t\u00e9 \u00e0 l\u2019origine de la base de donn\u00e9es vectorielle open source \u00e9ponyme<\/h2>\n<p><\/p>\n<p>Qdrant, la soci\u00e9t\u00e9 bas\u00e9e \u00e0 Berlin fond\u00e9e en 2021, cherche \u00e0 tirer profit de la r\u00e9volution de l\u2019IA en ciblant les d\u00e9veloppeurs avec un moteur de recherche vectorielle open source et une base de donn\u00e9es \u2013 une partie int\u00e9grante de l\u2019IA g\u00e9n\u00e9rative, qui n\u00e9cessite l\u2019\u00e9tablissement de relations entre des donn\u00e9es non structur\u00e9es (par exemple, du texte, des images ou du son non \u00e9tiquet\u00e9s ou autrement organis\u00e9s), m\u00eame lorsque ces donn\u00e9es sont \u00ab\u00a0dynamiques\u00a0\u00bb dans des applications en temps r\u00e9el. Selon les donn\u00e9es de Gartner, les donn\u00e9es non structur\u00e9es repr\u00e9sentent environ 90% de toutes les nouvelles donn\u00e9es d\u2019entreprise et croissent trois fois plus rapidement que leurs homologues structur\u00e9es.<\/p>\n<p><\/p>\n<h2>Un domaine en plein essor<\/h2>\n<p><\/p>\n<p>Le domaine des bases de donn\u00e9es vectorielles est en plein essor. Ces derniers mois, nous avons vu des entreprises telles que Weaviate lever 50 millions de dollars pour sa base de donn\u00e9es vectorielle open source, tandis que Zilliz a obtenu 60 millions de dollars pour commercialiser la base de donn\u00e9es vectorielle open source Milvus. Par ailleurs, Chroma a obtenu 18 millions de dollars de financement de d\u00e9marrage pour une proposition similaire, tandis que Pinecone a obtenu 100 millions de dollars pour une alternative propri\u00e9taire.<\/p>\n<p><\/p>\n<p>Quant \u00e0 Qdrant, elle a d\u00e9j\u00e0 lev\u00e9 7,5 millions de dollars en avril dernier, ce qui t\u00e9moigne de l\u2019app\u00e9tit apparemment insatiable des investisseurs pour les bases de donn\u00e9es vectorielles, tout en annon\u00e7ant une expansion pr\u00e9vue de Qdrant.<\/p>\n<p><\/p>\n<p>\u00ab Le plan \u00e9tait de proc\u00e9der \u00e0 la prochaine lev\u00e9e de fonds au deuxi\u00e8me trimestre de cette ann\u00e9e, mais nous avons re\u00e7u une offre quelques mois plus t\u00f4t et avons d\u00e9cid\u00e9 de gagner du temps et de commencer \u00e0 d\u00e9velopper l\u2019entreprise maintenant \u00bb, a expliqu\u00e9 Andre Zayarni, PDG et co-fondateur de Qdrant, \u00e0 Toukiela. \u00ab La lev\u00e9e de fonds et le recrutement des bonnes personnes prennent toujours du temps. \u00bb<\/p>\n<p><\/p>\n<p>Il convient de noter que Zayarni a d\u00e9clar\u00e9 que la soci\u00e9t\u00e9 avait en fait refus\u00e9 une offre d\u2019acquisition potentielle d\u2019un \u00ab\u00a0acteur majeur du march\u00e9 des bases de donn\u00e9es\u00a0\u00bb en m\u00eame temps qu\u2019elle recevait une offre de suivi pour un investissement. \u00ab Nous avons opt\u00e9 pour l\u2019investissement \u00bb, a-t-il d\u00e9clar\u00e9, ajoutant qu\u2019ils utiliseraient l\u2019injection de liquidit\u00e9s pour constituer leur \u00e9quipe commerciale, \u00e9tant donn\u00e9 que l\u2019entreprise est actuellement principalement constitu\u00e9e d\u2019ing\u00e9nieurs.<\/p>\n<p><\/p>\n<h2>Logique binaire<\/h2>\n<p><\/p>\n<p>Au cours des neuf derniers mois depuis sa derni\u00e8re lev\u00e9e de fonds, Qdrant a lanc\u00e9 une nouvelle technologie de compression super efficace appel\u00e9e quantification binaire (BQ), ax\u00e9e sur l\u2019indexation \u00e0 faible latence et \u00e0 haut d\u00e9bit, qui, selon elle, peut r\u00e9duire la consommation de m\u00e9moire jusqu\u2019\u00e0 32 fois et am\u00e9liorer les vitesses de r\u00e9cup\u00e9ration d\u2019environ 40 fois.<\/p>\n<p><\/p>\n<p>\u00ab La quantification binaire est un moyen de \u00ab compresser \u00bb les vecteurs pour obtenir une repr\u00e9sentation aussi simple que possible avec uniquement des z\u00e9ros et des uns \u00bb, explique Zayarni. \u00ab La comparaison des vecteurs devient l\u2019instruction CPU la plus simple, ce qui permet d\u2019acc\u00e9l\u00e9rer consid\u00e9rablement les requ\u00eates et de r\u00e9aliser des \u00e9conomies importantes en termes d\u2019utilisation de la m\u00e9moire. Le concept th\u00e9orique n\u2019est pas nouveau, mais nous l\u2019avons impl\u00e9ment\u00e9 de mani\u00e8re \u00e0 ce qu\u2019il y ait tr\u00e8s peu de perte de pr\u00e9cision. \u00bb<\/p>\n<p><\/p>\n<p>Cependant, la quantification binaire ne convient pas \u00e0 tous les mod\u00e8les d\u2019IA, et c\u2019est enti\u00e8rement \u00e0 l\u2019utilisateur de d\u00e9cider quelle option de compression conviendra le mieux \u00e0 ses cas d\u2019utilisation \u2013 mais Zayarni affirme que les meilleurs r\u00e9sultats ont \u00e9t\u00e9 obtenus avec les mod\u00e8les d\u2019OpenAI, tandis que Cohere et Gemini de Google ont \u00e9galement bien fonctionn\u00e9. La soci\u00e9t\u00e9 compare actuellement ses mod\u00e8les \u00e0 ceux de Mistral et Stability AI.<\/p>\n<p><\/p>\n<p>Ce sont de tels efforts qui ont permis d\u2019attirer des adoptants de haut niveau, notamment Deloitte, Accenture et \u2013 le plus prestigieux de tous \u2013 X (anciennement Twitter). Ou plus pr\u00e9cis\u00e9ment, xAI d\u2019Elon Musk, une entreprise qui d\u00e9veloppe Grok, un concurrent de ChatGPT, et qui a fait ses d\u00e9buts sur la plateforme X le mois dernier.<\/p>\n<p><\/p>\n<p>Bien que Zayarni n\u2019ait pas divulgu\u00e9 les d\u00e9tails de la fa\u00e7on dont X ou xAI utilise Qdrant en raison d\u2019un accord de non-divulgation (NDA), on peut raisonnablement supposer qu\u2019il utilise Qdrant pour traiter des donn\u00e9es en temps r\u00e9el. En effet, Grok utilise un mod\u00e8le d\u2019IA g\u00e9n\u00e9rative appel\u00e9 Grok-1, form\u00e9 \u00e0 partir de donn\u00e9es du web et de retours d\u2019humains, et compte tenu de son alignement (maintenant \u00e9troit) avec X, il peut incorporer des donn\u00e9es en temps r\u00e9el provenant de publications sur les r\u00e9seaux sociaux dans ses r\u00e9ponses \u2013 c\u2019est ce qui est aujourd\u2019hui connu sous le nom de g\u00e9n\u00e9ration augment\u00e9e par r\u00e9cup\u00e9ration (RAG), et Elon Musk a \u00e9voqu\u00e9 publiquement de tels cas d\u2019utilisation au cours des derniers mois.<\/p>\n<p><\/p>\n<div class=\"embed breakout embed-oembed embed--twitter\">\n<blockquote class=\"twitter-tweet\" data-width=\"550\" data-dnt=\"true\"><p><\/p>\n<p lang=\"en\" dir=\"ltr\">Comment Grok de @xai acc\u00e8de-t-il aux connaissances en temps r\u00e9el du monde via la plateforme \ud835\udd4f ? C\u2019est vrai, en utilisant une base de donn\u00e9es vectorielle, aliment\u00e9e par Qdrant. <br>En Rust, nous avons confiance ! \ud83e\udd80\u270a Restez \u00e0 l\u2019\u00e9coute. <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/t.co\/6Kx40vivAx\">https:\/\/t.co\/6Kx40vivAx<\/a><\/p>\n<p><\/p>\n<p>\u2014 Qdrant (@qdrant_engine) <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/twitter.com\/qdrant_engine\/status\/1721097971830260030?ref_src=twsrc%5Etfw\">5 novembre 2023<\/a><\/p>\n<\/blockquote>\n<p>\n<\/p><\/div>\n<p><\/p>\n<p>Qdrant ne r\u00e9v\u00e8le pas quels clients utilisent la version open source de Qdrant et lesquels utilisent ses services g\u00e9r\u00e9s, mais elle a mentionn\u00e9 un certain nombre de startups, telles que GitBook, VoiceFlow et Dust, qui utilisent \u00ab principalement \u00bb son service cloud g\u00e9r\u00e9 \u2013 cela permet aux entreprises aux ressources limit\u00e9es de ne pas avoir \u00e0 g\u00e9rer et d\u00e9ployer elles-m\u00eames l\u2019ensemble du syst\u00e8me, comme elles le feraient avec la version open source de base.<\/p>\n<p><\/p>\n<p>Cependant, Zayarni affirme que les r\u00e9f\u00e9rences open source de l\u2019entreprise sont l\u2019un des principaux arguments de vente, m\u00eame si une entreprise d\u00e9cide de payer pour des services suppl\u00e9mentaires.<\/p>\n<p><\/p>\n<p>\u00ab Lors de l\u2019utilisation d\u2019une solution propri\u00e9taire ou exclusivement bas\u00e9e sur le cloud, il y a toujours un risque de verrouillage du fournisseur \u00bb, explique Zayarni. \u00ab Si le fournisseur d\u00e9cide d\u2019ajuster les prix ou de modifier d\u2019autres termes, les clients doivent accepter ou envisager une migration vers une alternative, ce qui n\u2019est pas facile s\u2019il s\u2019agit d\u2019un cas d\u2019utilisation en production intensive. Avec l\u2019open source, il y a toujours plus de contr\u00f4le sur vos donn\u00e9es et il est possible de passer d\u2019une option de d\u00e9ploiement \u00e0 une autre. \u00bb<\/p>\n<p><\/p>\n<p>En plus du financement d\u2019aujourd\u2019hui, Qdrant lance \u00e9galement officiellement son \u00e9dition g\u00e9r\u00e9e \u00ab\u00a0sur site\u00a0\u00bb, offrant aux entreprises la possibilit\u00e9 d\u2019h\u00e9berger l\u2019ensemble du syst\u00e8me en interne tout en profitant des fonctionnalit\u00e9s premium et du support fournis par Qdrant. Cela fait suite \u00e0 l\u2019annonce de la semaine derni\u00e8re selon laquelle l\u2019\u00e9dition cloud de Qdrant \u00e9tait disponible sur Microsoft Azure, en plus du support d\u00e9j\u00e0 disponible pour AWS et Google Cloud Platform.<\/p>\n<p><\/p>\n<p>Outre l\u2019investisseur principal Spark Capital, la s\u00e9rie A de Qdrant a \u00e9galement b\u00e9n\u00e9fici\u00e9 de la participation de Unusual Ventures et 42cap.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":9914,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-9912","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/9912","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/comments?post=9912"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/9912\/revisions"}],"predecessor-version":[{"id":9913,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/9912\/revisions\/9913"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media\/9914"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media?parent=9912"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/categories?post=9912"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/tags?post=9912"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}