Xbox One : Succès avorté ou échec programmé ? Première partie.

«LA STRATÉGIE DE MICROSOFT - UNE TRAGÉDIE EN TROIS ACTES» le 4 février @ 09:302024-02-05T12:03:55+01:00" - 13 réaction(s)

Dès son annonce, la Xbox promettait de casser les codes. Une console embarquant des composants jusqu’ici réservés aux ordinateurs personnels, une connectivité naissante à internet avec un port filaire dédié, une compatibilité avec les téléviseurs haute définition quand ceux-ci étaient tout sauf abordables, à bien des égards la console de Microsoft annonçait le futur. Cela résultait à la fois de la volonté de la firme de Redmond d’apporter une réelle nouveauté dans les habitudes des joueurs et de celle des ingénieurs de la Xbox qui voulaient simplement créer la meilleure console de jeux vidéo du marché. Chaque génération de Xbox représenterait toujours plus qu’une simple machine sur laquelle faire bouger des pixels. La marque verte devait être le point d’accès à tous les types de divertissement. Treize ans et deux générations de consoles plus tard, Microsoft pensait avoir trouvé l’itération ultime de cette formule avec la Xbox One. La suite appartient à l’Histoire.

Cet article est le premier d’une série en trois parties qui constitue un nouveau dossier spécial sur la Xbox One, sa genèse et sa réception mitigée de la part du public. Ce premier article s’intéresse avant tout à la stratégie adoptée par Microsoft dans l’élaboration de la gamme de produits dont elle fait partie, les sujets couverts ici sont donc plus vastes et peuvent ne pas concerner directement la console.

Bill Gates présentant la première console Xbox au Consumer Electronics Show de Las Vegas, le 6 janvier 2001

De décisions contestables sur la conception même de la console en communication maladroite de la part des dirigeants de la marque, la troisième Xbox appliqua malgré elle la règle funeste commune aux troisièmes consoles de salon de la plupart des constructeurs. Elle fut un échec qui ébranla les fondations mêmes de la marque et beaucoup allèrent jusqu’à remettre en doute son avenir à court terme. Une décennie a passé et Xbox est toujours présent, bien que profondément altéré et toujours loin derrière la concurrence.

Il est tout à fait naturel de se demander où cela a capoté et qui sont les responsables de cette situation. La réponse semble évidente et tous les doigts déjà à l’époque, pointaient Don Mattrick, alors patron de Xbox. Pourtant, l’échec de la Xbox One est tout sauf isolé. Il se place en réalité au sein d’une myriade de produits Microsoft de cette même génération qui ont déçu les foules et entaché l’image de la marque. Si des produits comme les Windows Phone et les tablettes Surface n’ont jamais vraiment trouvé grâce aux yeux du public, les deux fleurons de la marque à la fenêtre que sont Windows et Xbox ont eux connu un succès remarquable dans la deuxième moitié des années 2000, avec la Xbox 360 (2005) et Windows 7 (2009). Plus dure fut la chute. Certains justiciers diraient même que « ce qui chûte est déchu ».

Au sens large, c’est l’intégralité de l’offre Microsoft qui aborda la décennie 2010 avec les deux ailes truffées de plomb. Cet échec semble d’autant plus retentissant que tous ces produits ayant été conçus pour fonctionner ensemble autour d’un langage visuel commun, Microsoft nous présentait en fait son premier véritable écosystème logiciel unifié. Cette toute nouvelle gamme de produits résultait d’une stratégie globale de la firme de Redmond dont l’un des objectifs était de repenser notre façon d’interagir avec la technologie.

I - Bien plus que des appareils

Ce n’est un secret pour personne, toutes les entreprises de ce qu’on appelle communément la Big Tech ont deux points communs : d’une part, elles sont en concurrence permanente les unes contre les autres, d’autre part l’objectif de chacune est de s’implanter durablement dans la vie et dans les habitudes du grand public. Plus vaste est le public, plus grand est le nombre d’acheteurs, non seulement pour leurs produits mais aussi pour leurs services car si on ne vend le premier que de façon ponctuelle, le second peut-être décliné en abonnement et/ou en contenu additionnel, garantissant ainsi un revenu sur le long terme.

Nouveau siècle, nouveaux codes

A l’aube du nouveau millénaire et grâce à l’arrivée progressive d’internet dans les foyers, la perspective d’un marché numérique et les revenus potentiels que celui-ci permettrait d’engendrer (revenus exonérés des contraintes financières et matérielles du support physique) n’a pas échappé aux fabricants de logiciels. Tels des pionniers franchissant la frontière, les géants de l’informatique ont tout de suite compris qu’un avenir radieux leur ouvrait les bras mais aussi que le temps ne jouerait pas en leur faveur. Une course venait d’être lancée et dans cette nouvelle ruée vers l’or comme dans les précédentes, il n’y aurait aucun prix de consolation pour le prospecteur qui arrive dernier.

Dans les trois premières années du vingt-et-unième siècle, les deux grands rivaux, Apple et Microsoft s’engouffrèrent dans la brèche. Pour la firme de Redmond, la distribution de contenu additionnel dématérialisé était un des piliers justifiant le projet Xbox. Le jeu en ligne se développait et la Xbox promettait de réussir là où Sega avait échoué : atteindre une communauté en expansion de joueurs connectés par internet. Si la distribution de contenu dématérialisé pouvait se développer de pair avec le jeu en ligne, le potentiel en termes de revenus, d’influence et d’image de marque serait illimité.

Kit de démarrage du Xbox Live

Le Xbox Live a tenu cette promesse en permettant de fédérer une communauté de plusieurs millions de joueurs et dans les années suivantes, la distribution de contenu en ligne a pris son envol. Entre-temps, Microsoft avait aussi tenté une réponse directe à l’iTunes Store d’Apple avec le service MSN Music, sans succès. Du côté des ordinateurs personnels, Windows Vista, sorti en 2006 ne trouvait pas son public non plus. De fait, les produits de Microsoft n’attiraient pas les foules, à l’exception notable de la Xbox 360, qui propulsa dans les foyers la nouvelle génération de consoles de jeux vidéo. Puissante, innovante, abordable et surtout, disponible bien avant la concurrence, la “Xbox 2” fut un véritable succès critique et commercial.

« Encore une chose. »

Pour Microsoft, alors en pleine conquête du cœur des joueurs face à deux plateformes rivales (Nintendo et Sony) semblant ne plus se soucier du public qui a fait leur succès, il était impensable que la véritable menace puisse venir… d’un téléphone portable.

Steve Jobs présentant le premier iPhone lors d’une conférence de l’exposition MacWorld à San Fransisco, le 9 janvier 2007.

En janvier 2007, Apple dévoilait l’iPhone, une petite révolution dans le monde restreint des “smartphones”, un marché de niche essentiellement adressé aux professionnels et dont le leader d’alors était Nokia. Ce nouveau modèle changeait totalement le paradigme des appareils mobiles. Il ne comportait pas de clavier physique et ne nécessitait pas l’utilisation d’un stylet pour interagir avec l’écran. L’iPhone annonçait le futur et les gens le voulaient. Pourtant, lorsqu’on demanda à Steve Ballmer, PDG de Microsoft à l’époque, son pronostic sur le succès de l’iPhone, ce dernier éclata de rire sur le prix (500 dollars), la disponibilité sous contrat avec un opérateur et le manque de clavier physique. La raison était simple, ce type d’appareil allait avoir beaucoup de mal à intéresser les professionnels et Ballmer comprenait cela. Toutefois, c’était un autre public qu’Apple visait : tout le monde.

Ce dédain de la part du dirigeant de Microsoft aurait pu passer pour une simple erreur de jugement et tout cet historique barbant dont vous arrivez courageusement au bout aurait pu ne pas avoir sa place dans un article traitant essentiellement de la marque à la fenêtre, mais non. Ce déni allait en fait coûter un temps précieux à Microsoft et lui faire prendre un retard considérable sur ce marché. Entre autre chose, c’est en tentant de rattraper ce retard, que la firme de Redmond défigurera profondément et durablement Xbox et manquera se saborder au passage.

« Nous tombons de Charybde en Scylla. »

La course était lancée depuis un bon moment et alors qu’Apple caracolait seul en tête, un autre concurrent venait de s’élancer à bride abattue en espérant rattraper son retard. Ce n’était pas Microsoft mais Google avec Android. De fait, dans ce paysage en plein séisme, l’entreprise à la fenêtre brillait par son absence. Cette absence n’était pas simplement ressentie par le grand public qui vit alors les mastodontes du web créer une nouvelle gamme de produits sans que le fabricant de Windows ne dise mot. Cette absence se fit aussi sentir chez les partenaires de la firme de Redmond, les fabricants de matériel (OEM) comme HTC et Motorola qui jusqu’alors fabriquaient entre autres, des téléphones embarquant Windows Mobile. Le manque d’évolution de la stratégie mobile de la marque à la fenêtre avait entraîné son manque de communication sur le sujet. Sans message rassurant de Microsoft sur le futur de son OS mobile, ses partenaires comprirent qu’ils allaient devoir lutter par eux-mêmes. Aucune aide ne viendrait du géant qui semblait endormi. Pour survivre sur ce nouveau marché sans avoir à assumer les coûts exorbitants liés à la création et au support d’un système d’exploitation mobile, tous se tourneront vers Android, facilitant l’expansion de Google sur ce marché, au point de rivaliser très rapidement avec Apple.

II - L’élaboration d’une stratégie audacieuse…

Le combat en cage

Il faudra attendre décembre 2008 pour qu’une réunion interne soit enfin tenue pour établir les fondements de la réponse de Microsoft. Il arrive parfois qu’une simple réunion change tout. Comme pour le “Massacre de la St Valentin” (pas celui de Chicago), la réunion ayant abouti au feu vert intégral de Microsoft pour la création de la Xbox. Celle-ci, nommée “Combat en cage” par plusieurs de ses participants, fut le point de départ d’une transformation profonde de Microsoft dans les mois et les années à venir. Et tout est parti de la question mobile. Le consensus sur lequel s’est achevée la réunion était qu’il fallait absolument tout repenser en termes d’architecture mobile, du matériel au logiciel.

Pour Terry Myerson, fraîchement nommé à la tête de la division Appareils de Microsoft et qui organisait la réunion, il s’agissait d’une occasion en or de prendre une nouvelle direction et d’essayer pléthore de nouvelles choses, comme il le confiera au New York Times trois ans plus tard. Un mois plus tard, Myerson nomma Joe Belfiore à la tête de l’équipe chargée du développement de ce que deviendra Windows Phone. Joe Belfiore faisait partie de ces ingénieurs qu’on ne connaît pas forcément mais dont on voit le travail sur la plupart des produits de l’entreprise. On lui doit entre autres l’interface du Windows Media Center, un type d’interface particulier qui inspira grandement la nouvelle interface de la Xbox 360 en 2008 et 2010 (NXE), ainsi que l’interface du Zune, petit lecteur de musique parti trop tôt, qui n’aura jamais été le concurrent de l’iPod que Microsoft voulait créer. C’est ce langage visuel qui sera repris sur Windows Phone.

Repenser les fondamentaux

Le constat était clair : Microsoft disposait d’atouts mais ne les utilisait pas correctement. L’entreprise possédait la technologie, les équipes et les ressources financières pour créer un écosystème digne de ce nom. Les appareils existaient. Téléphone sous Windows Mobile, baladeur Zune, ordinateur Windows, console de jeux-vidéo Xbox. Microsoft possédait également des services tournant sur ces appareils tels Xbox Live pour ses consoles et MSN pour Windows et Windows Mobile. Pour autant, l’interaction entre ces appareils était limitée voire inexistante dans certains cas. Pour espérer avoir une chance de tenir tête à Apple et maintenant Google, la famille d’appareils et de logiciels de Microsoft devrait se consolider et présenter un front uni face à la concurrence. Apple avait changé les règles du jeu et, pour rattraper son retard, Microsoft se devait de répondre avec une gamme de produits qui sorte vraiment du lot. Après une interminable errance, la firme de Redmond semblait enfin avoir trouvé la réponse parfaite :

L’idée n’était plus seulement de rattraper le retard mais de prendre de l’avance : changer le mode d’interaction du quidam moyen avec la technologie et unifier les appareils et services pour que l’expérience utilisateur soit plus simple, plus pratique et plus agréable. Une stratégie audacieuse dont les fondements rappellent ceux d’une certaine marque de Cupertino. Le pari était risqué mais pour Microsoft, c’était tout à fait jouable. Après tout, l’entreprise dominait déjà deux des quatre marchés clefs avec Windows et Xbox. Le futur du géant américain se résumerait ainsi :

  • Tous ses appareils allaient pouvoir être utilisés directement par le corps humain. Plus besoin de stylet, de souris ou de manette. L’humain et la machine enfin en harmonie l’un avec l’autre.
  • Tous ses appareils seraient interconnectés et fonctionneraient ensemble. Plus de séparation entre les différents services et les machines. Dès lors que vous aurez connecté votre compte Microsoft, c’est tout un monde de possibilités qui s’offrira à vous (voir conditions générales d’utilisation).
  • Tous ses appareils adopteraient un même langage visuel et une même interface utilisateur, de sorte à ce que l’utilisateur n’ait pas à tout réapprendre pour chaque appareil. Cette interface serait bien sûr pensée pour l’interaction tactile avant tout.

De la même façon qu’Apple avait choisi de supprimer le stylet pour pouvoir interagir directement (et donc plus naturellement) avec un écran, Microsoft allait appliquer cette même philosophie à… Tout le reste. Les écrans capacitifs pour smartphones devenaient la norme et cela permettrait à terme d’avoir le même type d’interaction avec un ordinateur. La prochaine version de Windows répondrait à cette exigence et serait pensée dès le début pour être tactile. Oui mais comment ? Certainement pas avec l’interface classique de Windows. Il fallait intégralement repenser le langage visuel. Le choix le plus évident pour Microsoft fut tout simplement de généraliser à tous ses appareils l’interface tactile en développement pour son système mobile : Windows Phone.

Une interface tactile qui ne ressemble à aucune autre

Capture d’écran promotionnelle de l’écran d’accueil de Windows 10 Mobile. Crédits photo : Microsoft.

Créer le nouveau langage visuel de Windows, voilà la lourde tâche qui incomba à Joe Belfiore et son équipe. La pression était immense et l’échec n’était pas une option. L’interface dite Metro, rejeton de Zune et du Media Center apporterait au futur système mobile un atout non négligeable face à la concurrence : son caractère unique (non, ce n’est pas une pub pour du camembert ! ). Lorsque Windows Phone arriva sur le marché, cette nouvelle interface mélangeant les menus en colonnes de Zune pour les applications, avec les “tuiles” inspirées du Media Center pour l’écran d’accueil, a très rapidement séduit. Si elle pouvait sembler intimidante au début et qu’il fallait bien quelques petites heures pour parvenir à bien la maîtriser, cette nouvelle interface se révéla pratique, rapide et, cerise sur le gâteau, elle n’était en fait pas dénuée d’un certain charme.

Les premiers retours positifs de l’interface Metro convaincront Microsoft que l’entreprise est sur la bonne voie. Ce succès critique sur smartphone (à défaut d’être un succès commercial) précéda l’apparition en interne des premières versions du futur Windows 8 à arborer les prémices d’une interface similaire, comme on peut le constater en comparant les versions de développement de l’OS ayant fuité au cours de cette période.

III - Une stratégie desservie par une exécution défectueuse

« Pendant que les amateurs parlent stratégie, les pros parlent logistique » disait le général Bradley. Si la logistique à proprement parler n’est pas en cause ici, c’est bien l’application pratique de ladite stratégie qui est à pointer du doigt. Ce n’est un secret pour personne, aucun produit sorti par Microsoft dans la période 2010-2013 n’a réellement rencontré le succès escompté. La grande stratégie mise en œuvre par la firme de Redmond pour rattraper son retard sur les autres géants du secteur n’a pas fonctionné. Les bonnes idées ne manquaient pourtant pas et sur le papier, cette stratégie avait tout pour réussir. Cependant, l’application pratique de ses principes n’a pas donné les résultats attendus. De mauvaises décisions en réception pour le moins mitigée de la part du public, le nouvel écosystème Microsoft échoua à conquérir les cœurs… Et le marché.

Windows Phone : Un bon produit miné par des décisions contestables

Joe Belfiore montrant deux appareils sous Windows Phone à la conférence Microsoft Build developer à San Francisco, le 2 avril 2014. Crédits photo : Justin Sullivan/Getty Images

Le nouveau système d’exploitation mobile de Microsoft avait tout pour plaire. Si son interface pouvait sembler contre-intuitive au début, une fois maîtrisée, elle se révélait en fait bien plus pratique que celles de la concurrence et offrait des possibilités qu’on considère aujourd’hui soit acquises (choix du mode sombre ou clair, couleur d’accentuation etc… Et la façon dont Apple a créé ses piles de Widgets rappelle furieusement les tuiles dynamiques de Windows Phone) soit disparues (l’application Contacts par exemple, permettait entre autres d’afficher également les publications de vos amis sur les réseaux sociaux).

La gestion de la batterie était meilleure, l’appareil photo était meilleur (sur la gamme Lumia) et le clavier était probablement le plus pratique de tous, même s’il n’était pas possible d’en changer et qu’il lui manquait certains caractères spéciaux. Pourquoi alors, Windows Phone n’a t’il pas séduit les foules ? La principale raison est son manque d’applications. Les développeurs ne voyaient pas l’intérêt de dépenser du temps et de l’argent pour porter celles-ci sur cette plateforme naissante puisque le nombre d’utilisateurs ne le justifiait pas.

Mais s’ils ne portent pas leurs apps, la plateforme ne risque pas d’attirer plus de monde. Une raison officieuse possible et certainement plus plausible est que Windows Phone n’était tout simplement pas digne de confiance pour les développeurs. Pourquoi ? Parce qu’entre la première et la seconde version de l’OS, Microsoft a décidé de changer le noyau du système, rendant impossible toute rétrocompatibilité et obligeant les développeurs à réécrire leurs applications, sans compter l’impossibilité pour les utilisateurs de Windows Phone 7 d’effectuer la migration vers la nouvelle version. Ce type de pratique a de quoi refroidir son monde. Le rachat de la branche mobile de Nokia en 2013 a aussi pu jouer un rôle. Cela a pu être perçu comme une tentative de Microsoft pour forcer leur passage vers le succès plutôt que de simplement donner envie aux gens d’acheter leurs produits. Quoiqu’il en soit, Windows Phone n’aura eu qu’une courte vie, ne grignotant que de maigres parts de marché pendant trois ans pour ensuite les perdre au cours des trois années suivantes.

Windows 8 : Un design inadapté et une révolution avortée

Capture d’écran promotionnelle du menu démarrer de Windows 8. Crédits photo : Microsoft.

On peut appliquer au nouveau système d’exploitation pour ordinateur personnel la même logique qu’à son jeune frère de poche. La nouvelle version de Windows possédait certaines qualités indéniables par rapport à son prédécesseur : une sécurité accrue, un marché d’applications, une compatibilité intégrée avec les services Xbox pour les jeux et le divertissement etc… Pourtant là aussi, le succès prit ses distances. Deux facteurs expliquent cet échec. Bien sûr, le premier concerne l’interface Metro. Windows 8 était censé être un système hybride pensé pour des ordinateurs hybrides mais son interface, directement inspirée de Windows Phone, était conçue pour les écrans tactiles avant tout, bien qu’un mode “classique” fut conservé pour les réfractaires. Le problème était que la grande majorité des utilisateurs de PC Windows n’avait pas d’écran tactile et ne voyait pas l’intérêt de s’en procurer un.

L’atout le plus voyant de Windows 8 passa ainsi à la trappe. Le second facteur de cet échec concerne non seulement Metro mais également la façon de faire de Microsoft. En choisissant d’imposer cette interface même pour les PC classiques, Microsoft envoyait un signal clair : Vous pouvez utiliser Windows 8 sans écran tactile mais vous allez en suer. La firme de Redmond choisissait de miser sur les PC hybrides, moitié PC, moitié tablette et tenta tout simplement d’imposer leur adoption (achat). Là où l’entreprise aurait pu laisser le choix au consommateur d’activer ou non un mode tactile qui basculerait le système sur l’interface Metro, Microsoft décida que tout le monde devrait faire l’inverse et sélectionner le bureau comme on sélectionnerait n’importe quelle application (cela a été corrigé avec Windows 8.1 mais le mal était fait). Le problème de Windows 8 en tant que système d’exploitation était le même que celui de Microsoft en tant qu’entreprise : Lui et le public ne parlaient pas la même langue et Microsoft tentait de forcer l’adhésion plutôt que de la mériter.

Dans ce contexte, nous ne parlerons pas de l’échec des tablettes Surface, qui n’ont jamais pu trouver leur place pour la simple raison que Microsoft ne savait de toute façon pas quelle place leur attribuer. Un PC ou une tablette ? Les deux mon capitaine. Vous avez dit redondant ?

CONCLUSION

Même avec des ressources que l’on pourrait croire illimitées, les grandes corporations comme Microsoft n’ont jamais eu pour habitude de faire feu de tout bois, sur tous les fronts. Comme on dit, il faut savoir choisir ses combats. En ce début de millénaire, la firme de Redmond pensait que son combat serait ce qu’il avait été depuis le début, Windows, encore et toujours. Mais cette fois, Windows serait partout : sur ordinateurs, sur consoles de salon, sur téléphones mobiles. Le géant américain semblait persuadé que son système pouvait se décliner sous toutes les formes et connaître le même succès partout. Aussi, lorsqu’il fallut repenser toute la gamme de produits de l’entreprise à la fin des années 2000, Microsoft se tourna-t-il vers cette même philosophie en uniformisant Windows pour l’utilisation tactile et gestuelle. C’était un pari sur l’avenir. Le pari que le tactile remplacerait bientôt les souris, stylets et autres manettes.

Une décennie a passé et nos bons vieux terminaux fonctionnent toujours principalement par l’intermédiaire de ces derniers. La révolution n’a pas eu lieu. La faute principalement à de mauvaises décisions que nous avons vues précédemment. Cette uniformisation de Windows sur tous les supports fut la pierre angulaire de l’échec de la nouvelle gamme de produits de la marque à la fenêtre. Pour unifier Windows Phone et Windows, Microsoft avait totalement changé le noyau de son système mobile, laissant sur le carreau utilisateurs comme développeurs. Si parmi les premiers, beaucoup finirent par acheter un nouveau Windows Phone, les développeurs eux perdirent tout intérêt pour cette plateforme qui, non contente de changer d’architecture, se voulait dorénavant aussi fermée qu’iOS. L’unification du langage visuel Windows pour les appareils tactiles provoqua le portage direct de l’interface Metro sur les ordinateurs ; Un changement de paradigme dont personne ne voulait pour la bonne et simple raison que cette nouvelle interface n’était pas du tout pratique à utiliser sur PC. Ce qui fonctionnait sur un petit écran de smartphone ne fonctionnerait pas forcément avec un ordinateur. Après tout, Windows Mobile, le prédécesseur de Windows Phone, n’avait pas réussi à s’imposer face à Nokia car il ressemblait trop à Windows XP. En inversant les paramètres, il s’agissait du même problème.

La stratégie mise au point par la firme de Redmond était audacieuse et sur le papier, elle avait tout pour plaire. Dans son exécution toutefois, l’entreprise fit le choix discutable de tout miser à nouveau sur des déclinaisons de Windows plutôt que de doter chaque produit d’une identité propre. Cela n’aurait pas empêché les intéractions entre les appareils de l’entreprise et aurait donné à chacun une place identifiable tout en respectant les habitudes des utilisateurs. Mais après avoir accumulé un certain retard face à la concurrence, le géant se devait non seulement de rattraper ce retard mais également de prendre un coup d’avance. Aussi ne pouvait-on se défaire de la désagréable impression que Microsoft tentait d’apprendre à courir avant de savoir marcher. Et bientôt, l’entreprise appliquerait ces mêmes principes à la prochaine génération de consoles Xbox.

Xbox One X

Accueil > News

13 reactions

Spectree

04 fév 2024 @ 11:39

Merci pour rubrique « Histoire » de la marque, super intéressant !

Au sujet des produits Surface, les appareils récents sont vraiment super et matures, je trouve. B-)

avatar

Kaidan64

04 fév 2024 @ 11:59

Très intéressant cet article, vivement le prochain épisode... :-))

avatar

Saitamouss

04 fév 2024 @ 12:39

Merci pour ce début de « documentaire » , hâte de lire les suites.

@Spectree c’est vrai , les deux derniers modèles sont excellents (design et techno) , et pourtant il y a deux ans ils avaient l’intention d’arrêter mais en cours de route MS s’est dit qu’ils vont sortir moins de produits mais à même de concurrencer les produits Apple. Par contre ils ont arrêté les Surfaces Hub (tout seul au début et ensuite la concurrence a commencé à s’installer, moins cher, moins lourd mais moins bien)

avatar

Wallace

04 fév 2024 @ 12:51

@Spectree @Saitamouss merci pour vos retours :) au sujet de la gamme Surface, elle ne trouvait pas son public à l’époque et selon moi c’est précisément parce qu’elles étaient redondantes à côté d’un Windows hybride. Depuis que Windows 10 s’est ^progressivement recentré vers le PC classique, les Surface ont en effet trouvé un peu plus leur place. Cela dit, je vous avouerai que je ne connais que très mal les derniers produits de cette gamme :)

avatar

Saitamouss

04 fév 2024 @ 13:05

@Wallace pour le côté redondant je suis d’accord avec toi. J’ai installé beaucoup d’écrans dans mon travail (tablettes, écrans de conférences, pc etc) et les produits en dehors des Hub étaient carrément détestés à cause de l’ergonomie. Les clients se moquaient du prix, c’est surtout la facilité d’utilisation qui les intéressait, donc à choisir , les clients demandaient des tablettes Samsung Tab au lieu de ceux de MS et des écrans Facebook (et oui Facebook fait aussi des écrans géants tactiles) parce que ça tourne sous Android. Ils ont enfin compris qu’il fallait se recentrer dans l’utilisation produit (et tu l’as bien souligné dans ton article en insistant sur cette « redondance »).

Par contre ce système d’exploitation en tuiles et tactile est très bien adapté pour les caisses de restaurants et de magasins, d’où le fait que dans le commerce il soit vraiment dominant (MS a même mis en place des programmes de gestion de stock intégré d’office pour celà).

Pour les derniers produits, MS ne s’est pas « éparpillés » comme précédemment. Il ne propose que deux gammes alors qu’avant c’était des dérivés à outrance pour inonder le marché. Un peu comme Apple, faire un produit demandé et qualitatif quitte à n’en sortir qu’un seul (dans l’idée)

avatar

Wallace

04 fév 2024 @ 13:09

@Saitamouss oui les tuiles sont très pratiques pour certains usages et sur Windows Phone c’était vraiment parfait (selon moi). Par contre je savais pas pour ces usages dans la restauration et la grande distribution. Merci beaucoup pour l’info :)

ch4rlSF

05 fév 2024 @ 07:13

J’ai le souvenir d’avoir eu, en 2005 ou 2006 un mobile qui fonctionnait sous windows. C’était un téléphone à clapet et ça devrait être un Samsung (je ne suis pas sûr). Ça reprenait l’ergonomie de XP.

Mon ressenti sur les mobiles sous windows est qu’ils essayaient de concurrencer Apple, voir d’imiter mais ça se transformait en une véritable usine à gaz. Et effectivement, les portables comme les tablettes ont été créer pour un usage dédié (traitement de texte, restauration, caisse....) Comme le faisait apple auparavant avant de démocratiser la plupart de ses appareils.

Après, ce n’est que mon ressenti à l’époque.

Marvfirstclass87

05 fév 2024 @ 08:00

Hello tous le monde. Avez vous eu vent de la nouvelle rumeur qui stipule que beaucoup de jeux allaient devenir multi plate forme. Dont Hi-fi...Starfield et Indianna. Ce qui sous entend que doucement mais sûrement Xbox glisserait vers la casquette d’éditeur tiers...

Tomchoucrew

Rédaction

05 fév 2024 @ 08:32

@Marvfirstclass87 on en a parlé sur le site déjà pour certains oui. Mais ça reste des rumeurs (sauf Hi-Fi pour lequel il y a réellement des éléments probants).

Marvfirstclass87

05 fév 2024 @ 08:35

@Tomchoucrew merci pour ton retour. Et bonne journée

12