26503040
L'Essentiel
0

Adaptative Computing révèle ses prédictions pour le big data

Adaptive Computing a annoncé ses prédictions sur l’avenir de l’informatique et les grandes analyses de données pour 2014 et au-delà. Les prédictions de Adaptive Computing englobent plusieurs tendances émergentes – dont la collision du cloud computing, le calcul haute performance (HPC) et Big Data – qui devraient accélérer les moyens des entreprises extrairent de la […]

bigdataAdaptive Computing a annoncé ses prédictions sur l’avenir de l’informatique et les grandes analyses de données pour 2014 et au-delà. Les prédictions de Adaptive Computing englobent plusieurs tendances émergentes – dont la collision du cloud computing, le calcul haute performance (HPC) et Big Data – qui devraient accélérer les moyens des entreprises extrairent de la richesse de leurs données.

Adaptive Computing a solidifié ses prédictions après de nouveaux résultats d’après une étude pratique de la compagnie récemment mené au 4e trimestre de 2013 à la conférence Supercomputing, HP Discover et les conférences Datacenter de Gartner en décembre 2013.
«La vitesse, la précision et le coût auquel les entreprises peuvent traiter de grandes analyses de données est le nouveau champ de bataille concurrentiel, et nous nous attendons à la nécessité de résultats pour influer grandement informatique en 2014 et au-delà», a déclaré Rob Clyde, PDG d’Adaptive Computing.
«Dans notre estimation, grand données nécessite une approche simplifiée à un processus d’analyse de données et la simulation complexe qui permet de gérer toutes les ressources à travers de multiples plates-formes informatiques. Parce que Moab peut négocier des ressources sur HPC, les nuages ​​et les grandes plates-formes de données et d’optimiser les ressources des centres de données en programmant efficacement des emplois de calcul, il est idéalement placé pour permettre à l’entreprise de mieux tirer parti des grandes données pour des décisions guidées par les données qui changent la donne «.

2014 prévisions d’Adaptive Computing comprennent:
Les entreprises pourront combiner les ressources informatiques pour une meilleure solution big data. Selon l’enquête de l’Adaptive Computing, 91% des organisations estiment une combinaison de Big data, HPC ou cloud devrait se produire.
L’intersection du cloud computing, HPC et Big Data s’intensifie, Adaptive Computing prévoit que les organisations ont un avantage concurrentiel en investissant dans un logiciel capable de la planification et l’optimisation des ressources des centres de données, ce qui augmente l’utilisation en orchestrant simultanément les emplois de calcul sur plusieurs plates-formes informatiques.

Plusieurs organisations se tournent vers HPC comme une solution Big Data.
Selon l’enquête de l’Adaptive Computing, 44% des organisations utilisent le HPC comme une solution Big data. Comme les coûts de matériel HPC continuent de diminuer, Adaptive Computing prévoit que le HPC deviendra une solution de Big Data réalisable pour plusieurs organisations, y compris les sociétés d’économie du marché intermédiaire.

Le processus d’analyse des données sera plus automatisé.
La majorité des organisations (84%) ont un processus manuel pour analyser les Big data, selon l’enquête de l’Adaptive Computing.
Une approche manuelle est longue et se traduit généralement par des environnements informatiques en silos sous-utilisées, ce qui explique pourquoi 90% des répondants au sondage permettrait d’atteindre une plus grande satisfaction d’un meilleur processus d’analyse ou de workflow. Pour traiter des simulations et des analyses de données plus efficacement, Adaptive Computing prédit que plusieurs organisations permettra d’automatiser les flux de travail, ce qui réduit le travail manuel coûteux et source d’erreurs.
Le volume et la complexité des grands flux de données vont commencer à avoir un impact sur ​​les entreprises sur une plus grande échelle.
L’enquête d’Adaptive Computing a révélé que 72% des organisations estiment les impacts de flux de travail de leur entreprise.
Cela est dû à la complexité qui accompagne la mise en place de différents types de jeux de données et des bases de données, et l’application correspondante nécessaire pour chaque tâche.
Exécution de calcul et de grands flux de données intensif de données sans automatisation tend à provoquer des impasses et des résultats de retard. Informatique Adaptive prévoit davantage l’accent sur l’automatisation des flux de travail pour éliminer les blocages et aider à l’extraction des informations clés des grandes données, l’accélération des idées pour l’entreprise.

Share:
  • googleplus
  • linkedin
  • tumblr
  • rss
  • pinterest
  • mail

Écrit par itmag2003

There are 0 comments

Leave a comment

Want to express your opinion?
Leave a reply!

commentez car plus vous commentez plus il y aura d'échange

%d blogueurs aiment cette page :
Lire les articles précédents :
Boom de la téléphonie, migration vers l’IPV6, télévision numérique…. La télécommunication passe du tout au tout

Le gouvernement a engagé une palette de mesures dans le but de développer, d’améliorer les technologies de l’information et le...

Fermer