Nouvelles Du Monde

Applications et informations en temps réel, prévisions Couchbase

Applications et informations en temps réel, prévisions Couchbase

2023-11-24 15:32:57

Applications et informations en temps réel : Fabio Gerosa, directeur commercial Italie de Base de canapémet en évidence les principales tendances technologiques qui caractériseront l’année prochaine

La technique de Retrieval-Augmented Generation (RAG) sera fondamentale pour obtenir des résultats bien fondés et contextuels avec l’IA

L’enthousiasme pour les grands modèles linguistiques et leurs capacités génératives continuera d’être limité par le problème des hallucinations. Il s’agit de cas où les modèles produisent des résultats qui, bien que cohérents, peuvent être éloignés de la réalité factuelle ou du contexte des intrants. À mesure que les entreprises progressent, il sera important de démystifier les hallucinations de l’IA et de mettre en œuvre une technique émergente et définie. Génération augmentée par récupération (RAG), qui, combiné à des données contextuelles en temps réel, peut réduire ces hallucinations, améliorant ainsi la précision et la valeur du modèle. RAG introduit le contexte de l’entreprise ou de l’utilisateur, réduisant les hallucinations et augmentant la véracité et l’utilité.

Les données et informations en temps réel deviendront la norme pour alimenter les expériences IA générative; les données devront prendre en charge les analyses transactionnelles et en temps réel
La croissance spectaculaire de l’IA générative se poursuivra fortement en 2024. De plus en plus d’entreprises l’intégreront pour alimenter des applications de données en temps réel et créer des solutions. dynamique et adaptatif basé sur l’IA. Devenant fondamentales pour les affaires, les entreprises devront veiller à ce que les données sur lesquelles reposent les modèles d’IA soient fondées sur la vérité et la réalité, en exploitant des informations aussi « fraîches » que possible.

Tout comme la nourriture, les cartes cadeaux et les médicaments, les données ont également une date d’expiration. Pour que l’IA générative soit véritablement efficace, précise et fournisse des résultats contextuellement pertinents, elle doit s’appuyer sur des données en temps réel continuellement mises à jour. La demande croissante d’informations en temps réel entraînera l’adoption de technologies permettant le traitement et l’analyse de ces données. En 2024 et au-delà, les entreprises exploiteront de plus en plus un niveau d’information prenant en charge à la fois l’analyse transactionnelle et en temps réel pour prendre des décisions opportunes et réagir instantanément à la dynamique du marché.

Lire aussi  Des rangées de fonctionnalités adaptées aux enfants dans le Huawei MatePad SE Kids Edition

Le paradigme de l’IA passe d’un modèle centré à un modèle centré sur les données

Les données sont essentielles à l’apprentissage automatique moderne, mais elles doivent être traitées et gérées correctement dans les projets d’IA. Étant donné que cette technologie adopte une approche centrée sur les modèles, des centaines d’heures sont perdues à peaufiner des modèles basés sur des données de mauvaise qualité.
À mesure que les modèles d’IA mûrissent, évoluent et se multiplient, des efforts seront déployés pour rapprocher les modèles des données. L’IA centrée sur les données Il permettra aux entreprises de proposer des expériences à la fois génératives et prédictives, basées sur les données les plus récentes, améliorant considérablement les performances des modèles tout en réduisant les hallucinations.

Les entreprises s’appuieront sur les copilotes d’IA pour obtenir des informations plus rapidement

L’intégration de l’IA et apprentissage automatique Les processus de gestion des données et les outils d’analyse continueront d’évoluer. Avec l’émergence de l’IA générative, les entreprises ont besoin d’un moyen d’interagir avec l’IA et les données qu’elle produit à un niveau contextuel. Profitant de l’augmentation des informations et des analyses, les entreprises commenceront à intégrer dans leurs produits des copilotes d’IA – dont la capacité à comprendre et à traiter de grandes quantités de données agissent comme des assistants pour les modèles d’IA, les ordonnant et générant des bonnes pratiques et des recommandations. obtenir des informations plus rapidement.
L’information augmentée est un outil puissant qui changera la façon dont nous construisons l’infrastructure et les applications dans les années à venir, car la gestion augmentée des données automatisera les tâches de qualité et d’intégration de routine, tandis que l’analyse augmentée fournira des informations avancées et automatisera la prise de décision en matière de processus.

Lire aussi  Le mariage de Michi et Nicole sera-t-il annulé ? (14/09/23)

Le LLM et les bases de données multimodales ouvriront une nouvelle frontière pour les applications d’IA dans tous les secteurs industriels

L’une des tendances les plus intéressantes pour 2024 sera la montée en puissance du LLM multimodal. Avec l’émergence de ce phénomène, le besoin de bases de données multimodales capables de stocker, gérer et interroger efficacement différents types de données s’est accru. Cependant, la taille et la complexité des ensembles de données multimodales posent un défi aux bases de données traditionnelles, qui sont généralement conçues pour stocker et interroger un seul type de données, comme du texte ou des images.
Les bases de données multimodales, en revanche, sont beaucoup plus polyvalentes et puissantes et représentent une progression naturelle dans l’évolution des LLM pour combiner différents aspects du traitement et de la compréhension de l’information, en utilisant de multiples modalités telles que le texte, les images, l’audio et la vidéo. Il existe de nombreux cas d’utilisation et secteurs qui bénéficieront directement d’une approche multimodaleparmi lesquels soins de santé, robotique, commerce électronique, instruction, vente au détail e jeu. Les bases de données multimodales connaîtront une croissance et des investissements importants en 2024 et au-delà.

Le succès d’Edge AI dépendra des progrès des modèles d’IA légers

L’innovation qui caractérise l’IA est passionnante, et l’informatique de pointe est un moyen de permettre de nouvelles applications. Cependant, pour faire de l’IA de périphérie une option viable, les modèles doivent être légers et capables de fonctionner sur des appareils embarqués et des serveurs de périphérie aux ressources limitées, tout en fournissant des résultats avec des niveaux de précision acceptables.
Bien que de nombreux progrès aient déjà été réalisés en matière de compression de modèles, l’innovation dans ce domaine se poursuivra et, combinée aux progrès des processeurs d’IA pour la périphérie, rendra EdgeAI omniprésent.

Lire aussi  Samsung intègre les fonctionnalités de la technologie IA dans la série Galaxy S24, au prix le moins cher de 13 millions IDR

La seule façon de faire évoluer l’IA sera de la distribuer, avec l’aide de l’edge computing

La convergence de l’IA en périphérie et dans le cloud sera le moyen de fournir une IA à grande échelle, dans le cloud et en périphérie, avec un déchargement de calcul si nécessaire. Par exemple, la périphérie peut gérer les inférences de modèle et le cloud sa formation ou la périphérie peut décharger les requêtes vers le cloud en fonction de la longueur d’une requête, et ainsi de suite.
Lorsqu’il s’agit d’une stratégie d’IA réussie, il n’est pas pratique d’avoir une approche uniquement cloud. Les entreprises doivent envisager une stratégie d’informatique de pointe – couplée au cloud – pour permettre des prédictions d’IA en temps réel et à faible latence de manière rentable, sans compromettre la confidentialité et la souveraineté des données.

L’apprentissage fédéré sera un élément clé de l’avenir de l’IA, en particulier dans un monde où la vie privée est mise à rude épreuve.

S’il est vrai que nous avons peut-être archivé l’apprentissage traditionnel en matière d’IA, il existe encore de nombreuses sources de données inexploitées. Tout ce que nous faisons sur nos appareils est synchronisé avec un serveur pour former des modèles de langage étendus (LLM) ou affiner les LLM pour une utilisation spécifique.
C’est là qu’intervient l’apprentissage fédéré. Avec la popularité récente de l’IA générative, l’idée d’adopter une approche décentralisée de la formation des modèles d’IA – l’apprentissage fédéré – est devenue populaire.
Grâce à sa capacité à sécuriser les modèles de formation et à prendre en charge les applications sensibles à la confidentialité, l’apprentissage fédéré sera un élément crucial pour débloquer l’avenir de l’IA tout en répondant aux préoccupations critiques concernant la confidentialité et la sécurité des données.



#Applications #informations #temps #réel #prévisions #Couchbase
1700904444

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT