Nouvelles Du Monde

Actualités analytiques en temps réel pour la semaine se terminant le 18 novembre

Actualités analytiques en temps réel pour la semaine se terminant le 18 novembre

Dans l’actualité analytique en temps réel de cette semaine : NVIDIA a introduit un service de fonderie d’IA pour accélérer le développement et le réglage d’applications d’IA génératives personnalisées sur Microsoft Azure.

Suivre l’actualité et les évolutions du marché de l’analyse en temps réel peut s’avérer une tâche ardue. Nous souhaitons vous aider en fournissant un résumé de certaines des actualités importantes en matière d’analyse en temps réel que notre personnel a rencontrées cette semaine. Voici notre liste :

Nvidia a introduit un service de fonderie d’IA pour dynamiser le développement et le réglage d’applications d’IA génératives personnalisées pour les entreprises et les startups qui se déploient sur Microsoft Azure. Le service de fonderie NVIDIA AI rassemble trois éléments – une collection de modèles NVIDIA AI Foundation, le framework et les outils NVIDIA NeMo et les services de supercalcul NVIDIA DGX Cloud AI – qui offrent aux entreprises une solution de bout en bout pour créer des modèles d’IA génératifs personnalisés. Les entreprises peuvent ensuite déployer leurs modèles personnalisés avec le logiciel NVIDIA AI Enterprise pour alimenter les applications d’IA générative.

IBM a annoncé que watsonx.governance serait généralement disponible début décembre pour aider les entreprises à mieux examiner les modèles d’IA et à éliminer le mystère entourant les données entrantes et les réponses qui en ressortent. À cette fin, watsonx.governance fournit aux organisations une boîte à outils pour gérer les risques, adopter la transparence et anticiper la conformité aux futures réglementations axées sur l’IA.

Sponsorisé : Les données mainframe sont essentielles au succès de l'analyse cloud, mais y accéder n'est pas facile [Read Now]Sponsorisé : Les données mainframe sont essentielles au succès de l'analyse cloud, mais y accéder n'est pas facile [Read Now]

L’actualité de l’analyse en temps réel en bref

Actien a officiellement relancé Actian Data Platform (anciennement connue sous le nom d’Avalanche), qui propose des fonctionnalités d’intégration hybride en tant que service. La plateforme améliorée renforce la confiance des entreprises dans leurs données, améliore la qualité des données, contribue à réduire les coûts et permet une meilleure prise de décision dans l’ensemble de l’entreprise. De plus, la plateforme de données Actian collecte, gère et analyse les données en temps réel grâce à ses capacités de base de données transactionnelles, d’intégration de données, de qualité des données et d’entrepôt de données dans une plateforme facile à utiliser.

Aérospike a publié la version 7 de sa base de données multimodèle en temps réel avec un nouveau format de stockage unifié et d’autres améliorations significatives de la base de données en mémoire. Le format de stockage unifié d’Aerospike Database 7 offre la flexibilité nécessaire pour choisir le bon moteur de stockage pour différents types de charges de travail, même au sein du même cluster. Les développeurs n’ont plus besoin de comprendre les subtilités des modèles de stockage en mémoire, de mémoire hybride et de stockage 100 % Flash. Les déploiements en mémoire bénéficient de redémarrages rapides pour une résilience et une compression de niveau entreprise qui réduisent l’empreinte mémoire des applications en temps réel.

Architecte a annoncé son nouveau Mediaflux Universal Data System, une convergence de gestion de données, d’orchestration de données, d’accès multiprotocole et de stockage sur une seule plateforme. Le système gère l’intégralité du cycle de vie des données, sur site et dans le cloud, avec un accès distribué à l’échelle mondiale. Avec Mediaflux Universal Data System, les organisations peuvent facilement partager des données entre sites.

Lire aussi  Sensations sur Mars. Squelette de dragon retrouvé

Astronome a annoncé que sa plate-forme Astro est désormais disponible sous le nom d’Apache Airflow sur Astro – un service ISV natif Azure. Astro permet aux entreprises de placer Airflow au cœur de leurs opérations de données pour garantir la fourniture fiable de pipelines de données critiques. En tant que service géré dans le portail Azure, les développeurs peuvent créer une instance Airflow en quelques clics, accéder à une vaste bibliothèque d’intégrations prédéfinies et coordonner facilement toutes les opérations de données à partir de la plateforme de données unifiée d’Astro.

Canonique, l’éditeur d’Ubuntu, a annoncé la sortie de Microcloud, une nouvelle solution cloud open source à faible consommation. La nouvelle offre fait partie du portefeuille croissant d’infrastructures cloud de Canonical. Il est spécialement conçu pour les clusters évolutifs et les déploiements périphériques pour tous les types d’entreprises et conçu dans un souci de simplicité, de sécurité et d’automatisation. Microcloud est proposé dans le cadre de l’abonnement Ubuntu Pro de Canonical, avec plusieurs niveaux de support disponibles et tarifés par nœud.

Recensement a dévoilé Census Embedded, une offre destinée aux développeurs et conçue pour simplifier l’intégration transparente de Reverse ETL dans les produits et les plates-formes. Le point culminant de ce produit intégré est Census Connect, un flux de travail côté client qui rationalise la collecte des informations d’identification des utilisateurs finaux et crée par programme des pipelines ETL inversés.

Dataiku a annoncé que Briques de données est le dernier ajout à son programme de partenariat LLM Mesh. Grâce à cette intégration et à ce partenariat, les deux sociétés ouvrent la voie à des transformations commerciales basées sur l’IA générative. À cette fin, Dataiku et Databricks démocratisent l’accès aux données, à l’analyse, à l’apprentissage automatique et à l’IA, permettant une expérience visuelle collaborative qui fait évoluer les programmes et accélère la réalisation de projets d’IA générative.

Exasol a annoncé qu’Exasol Espresso, son moteur de requête qui se connecte aux piles de données existantes est intégré au fournisseur d’analyses en libre-service Ouah. L’intégration permet aux clients de poser simplement des questions en langage naturel pour interroger leur base de données et obtenir immédiatement des réponses fiables à partir de milliards de lignes de données. La fonctionnalité IA de Veezoo propose des suggestions intelligentes de questions de suivi pour guider l’exploration des données, transformant l’analyse des données en une expérience engageante et interactive.

Faune a annoncé un nouveau schéma déclaratif et une suite d’outils et d’intégrations DevOps qui apportent les principes flexibles des déploiements CI/CD modernes à sa base de données opérationnelle d’entreprise. Les mises à jour incluent Fauna Schema Language (FSL), une interface de ligne de commande (CLI) moderne et des intégrations GitHub et GitLab. Combinées, ces fonctionnalités permettent au développement de bases de données de suivre le rythme de développement d’applications en incorporant des modifications au niveau du schéma de base de données dans des flux de travail CI/CD plus larges.

Lire aussi  L'alternative à la dépression quand tout échoue

Cinqtran a annoncé sa prise en charge de Microsoft OneLake via l’intégration avec Microsoft Fabric en tant que nouvelle destination de lac de données. De plus, Fivetran a été nommé partenaire d’interopérabilité Microsoft Fabric. Avec la prise en charge de Delta Lake sur Azure Data Lake Storage (ADLS) Gen2, également annoncée cette semaine, les clients Fivetran disposent désormais de deux destinations de lac de données Microsoft pour consolider en toute sécurité leurs charges de travail de données avec l’une des plus de 400 données prédéfinies et entièrement gérées de Fivetran. canalisations.

lieu a annoncé le lancement d’ibi Data Intelligence, une solution de gestion de données qui permet aux organisations de relever des défis complexes de manière efficace, rentable et à grande échelle. La nouvelle offre élimine la difficulté de gérer des logiciels disparates provenant de plusieurs fournisseurs, unifie les données sur une seule plateforme et améliore la fiabilité et l’accessibilité des données.

IOTech a annoncé la disponibilité générale d’Edge Central, une plateforme de données ouverte qui rend les données industrielles facilement accessibles, exploitables et gérables. Edge Central est une solution complète, offrant toutes les fonctionnalités dont les organisations ont besoin pour gérer et utiliser leurs données de périphérie. Version commercialisée de la plateforme EdgeX Foundry, Edge Central permet aux entreprises de créer des environnements périphériques sans risque de dépendance vis-à-vis d’un fournisseur.

Sponsorisé : Les données mainframe sont essentielles au succès de l'analyse cloud, mais y accéder n'est pas facile [Read Now]Sponsorisé : Les données mainframe sont essentielles au succès de l'analyse cloud, mais y accéder n'est pas facile [Read Now]

Kalray a annoncé la disponibilité de NG-Box, une baie de stockage NVMe désagrégée basée sur des serveurs Dell PowerEdge combinée à des cartes d’accélération de stockage basées sur Kalray DPU. NG-Box est conçu pour exceller dans les charges de travail de données non structurées et pour offrir un stockage de niveau 0 sur site rapide, automatisé et évolutif pour les flux de travail exigeants à forte intensité de données, de plus en plus axés sur l’IA.

KX a annoncé deux nouvelles offres optimisées pour Microsoft Azure clients : l’intégration de KDB.AI avec Azure Machine Learning et Azure OpenAI Service ; et copilote KX. Grâce à l’intégration de KDB.AI avec Azure Machine Learning et Azure OpenAI Service, les développeurs qui ont besoin de piles technologiques clé en main peuvent accéder à des instances entièrement configurées de KDB.AI, Azure Machine Learning et Azure OpenAI Service dans le cadre de leur abonnement client. À l’aide de KX Copilot basé sur Azure et d’un plug-in Microsoft Teams, les clients peuvent exploiter les données vectorisées hébergées dans kdb Insights Enterprise pour faciliter de meilleures requêtes à l’aide d’invites en langage naturel.

Martien est sorti de la furtivité et a annoncé le Model Router, une solution de couche d’orchestration qui achemine chaque requête individuelle vers le meilleur LLM en temps réel. Grâce au routage, Martian atteint des performances supérieures et un coût inférieur à celui de n’importe quel fournisseur individuel, y compris GPT-4. Le système repose sur la technologie Model Mapping de la société qui décompresse les LLM des boîtes noires complexes dans une architecture plus interprétable.

Lire aussi  11 rénovations et fermetures en cours à Walt Disney World (mars 2023)

Nouvelle relique a lancé New Relic AI Monitoring (AIM), une solution APM pour les applications basées sur l’IA. Grâce à la solution, les ingénieurs peuvent accéder à une vue unique pour dépanner, comparer et optimiser différentes invites et réponses LLM concernant les problèmes de performances, de coût, de sécurité et de qualité, notamment les hallucinations, les biais, la toxicité et l’équité. Il offre aux ingénieurs une visibilité complète sur tous les composants de la pile d’IA ainsi que sur les services et l’infrastructure afin qu’ils disposent des données dont ils ont besoin pour une utilisation responsable de l’IA et pour prouver leur conformité aux futures réglementations en matière d’IA.

Teradata a annoncé son premier moteur d’IA/ML sans serveur dans le cloud, appelé Teradata AI Unlimited. La nouvelle offre est nativement intégrée dans Microsoft Fabric et OneLake, qui est le lac de données unifié et multicloud de Fabric. En permettant aux data scientists, aux ingénieurs de données et aux développeurs d’explorer et de découvrir en toute transparence de nouveaux cas d’utilisation à la demande, Teradata AI Unlimited améliore les plateformes de données historiques et est conçu pour rendre l’innovation en IA plus rapide, plus facile et plus rentable.

Démêler les données a annoncé la sortie d’Unravel pour Snowflake. En utilisant une IA spécialement conçue pour gérer la pile technologique Snowflake, la gestion des coûts des données cloud est confiée aux clients de Snowflake en leur fournissant des informations granulaires sur les facteurs de coûts spécifiques, ainsi que des recommandations de coûts et de performances basées sur l’IA pour optimiser. Requêtes SQL et applications de données.

Vultr a annoncé l’ajout de la superpuce NVIDIA GH200 Grace Hopper à son offre Cloud GPU pour accélérer la formation et l’inférence de l’IA dans les 32 emplacements des centres de données cloud de Vultr. Le NVIDIA GH200 exploite la flexibilité de l’architecture Arm pour créer une architecture de serveur CPU conçue dès le départ pour les défis de l’IA, du calcul haute performance (HPC) et de l’analyse avancée.

Yotascale a annoncé Yota AI Assist, un copilote FinOps alimenté par Generative AI. Yota AI Assist analyse en permanence les coûts d’infrastructure AWS, Azure, GCP, Snowflake, Datadog, Databricks et autres d’une organisation, fournissant des informations et des recommandations d’optimisation à chaque responsable en fonction de ses objectifs et de son rôle. Une fonctionnalité comme celle-ci démocratise les données sur les coûts du cloud afin que chacun puisse obtenir rapidement des réponses, optimisant ainsi les opérations de cloud computing à tous les niveaux.

Si votre entreprise dispose d’informations analytiques en temps réel, envoyez vos annonces à [email protected].

Au cas où vous l’auriez manqué, voici nos plus récents résumés hebdomadaires de l’actualité analytique en temps réel :

2023-11-20 00:53:51
1700435103


#Actualités #analytiques #temps #réel #pour #semaine #terminant #novembre

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT