Avec le retard de la nouvelle gamme de Macbooks, le non renouvellement de machines vieillissantes, et la direction que tends à emprunter Apple dans ses décisions, je me suis posé pas mal de questions quand à l’avenir du Hackintosh, et des macs en général. Je vous livre ma petite réflexion.

Et si Apple abandonnait le x64 ?

Apple n’aime pas être dépendant d’un constructeur, que ce soit par le passé pour leurs cartes graphiques ou pour les processeurs de leurs iPhones / iPad, c’est quelque chose qui les embête car ils y voient un danger.  Apple par le passé à changé de type de processeurs sur leur machines de bureau, en passant du PowerPC à Intel. Migration très bien réussie dans le temps, et dont les éditeurs de logiciels s’étaient rapidement accommodés. Apple utilise donc depuis longtemps la même architecture et globalement le même matériel qu’un PC standard. C’est d’ailleurs ce qui à permis au Hackintosh de se développer.

Pourquoi Apple ne répéterais pas l’histoire en produisant eux même les futurs CPUs de leurs machines ?

On a vu lors des derniers benchmarks de l’iPad Pro, que les performances de son CPU étaient quasiment comparables à celles du petit Core M équipant les nouveaux Macbooks ultra fins, la partie graphique de leur CPU étant aussi très correcte. Lorsqu’on y regarde de plus près, qu’est ce qui empêcherais Apple d’opérer ce changement radical ?

Apple produit déjà leurs propres cartes mères, changer de CPU pour utiliser un ARM ne leur serait pas d’un effort surhumain. De plus, le processeur équipant l’iPad Pro dispose d’une excellente capacité graphique et d’une autonomie record, tout ce qu’on aime dans un portable.

Quid des logiciels ?

On voit déjà depuis quelques temps la volonté d’Apple de fermer tout l’écosystème logiciel en forçant les développeurs à publier leurs apps sur l’App Store. L’évidence la plus flagrante est l’abandon pur et simple de l’option dans macOS Sierra d’autoriser l’utilisation d’applications téléchargés n’importe où, en ne proposant uniquement les options « App Store » et « App Store et développeurs identifiés », donc validés par Apple.

Développer une application pour macOS nécessite aujourd’hui d’utiliser Xcode, comme pour une application iOS. Mais regardons les petits changements subtils qu’Apple à opéré récemment.

L’exemple iOS

Pour proposer une App sur le store iOS, il est maintenant nécessaire non plus d’envoyer une sorte de binaire compilé sur les serveurs d’Apple, mais d’une sorte de version semi-compilée avec un descripteur. Apple se charge pour vous de compiler et de proposer des versions différentes en fonction des devices où l’app est téléchargée. De cette manière l’app que vous téléchargerez depuis le store sera plus légère et nous n’aurez pas de code 32 bits sur votre iPhone 6s, et pas de code 64 bits sur votre iPhone 5. Derrière cette optimisation non négligeable, Apple à joué un jeu très malin. Rien ne les empêcherait demain par exemple, d’entièrement changer l’architecture et le type de processeurs de leurs iPhones de manière transparente pour le développeur et l’utilisateur, vu qu’ils en détiennent le compilateur final, transformant votre code issu d’Xcode en binaire utilisable par votre iPhone.

Qu’est ce qui empêcherais Apple de procéder au même changement sur le Mac App Store ? Rien du tout, et je pense que c’est en route, l’avenir nous dira si j’avais raison. Apple pourrait ainsi changer les spécs de ses machines à leur gré sans être tributaire et dépendant des nouvelles avancées d’Intel dans le domaine, ils maitriseraient alors de nouveau toute la chaîne du hardware au software, le tout leur permettant de réellement « sceller » leurs machines, et ainsi procéder à ce hold-up géant auprès des développeurs en récupérant 30% de leurs ventes. Tout ça derrière un argument de sécurité et de « developper/user friendly ».

Les GPUs, c’est Has Been.

On voit depuis un certain temps qu’Apple délaisse de plus en plus les capacités graphiques de leurs machines, et le milieu pro de manière générale. La dernière mise à jour du Mac Pro date de 2013, et hormis le Macbook Pro Retina 15″ haut de gamme, et les iMacs 5K, plus aucune machine d’Apple n’inclus un GPU. Lorsqu’un GPU est présent, il est très limité et castré pour que ce dernier ne chauffe pas dans le petit encombrement qu’il doit occuper. Apple délaissant clairement le marché pro, on peut imaginer relativement simplement un abandon pur et simple des GPU dans les Macbooks Pro, cette option étant de toute façon limitée à une seule machine.

Si la puissance des processeurs actuels crée par Apple dans les iPad Pro est impressionnante, elle n’est pas encore comparable à un processeur de machine de bureau comme un i5 ou i7 que ce soit sur la partie CPU ou GPU. On peut imaginer une transition en deux étapes, d’un changement d’architecture dans la gamme portable puis plus tard la transition vers les machines de bureau.

La partie graphique des processeurs qu’Apple crée gère déjà très bien des jeux 3D assez demandeurs, dans de très hautes résolutions, à des vitesses d’affichage impressionnantes. L’arrivée de Metal, la nouvelle API graphique devant remplacer OpenGL dans macOS et ses gains de performances non négligeables (cherchez l’exemple avec Word of Warcraft) permettrait à Apple d’abandonner Nvidia ou AMD en plus et de conserver une puissance graphique non négligeable.

LE rêve d’Apple

Si Apple opère ce changement, que je pense tout à fait réalisable, Apple réussirait à complètement maitriser tout son écosystème et être parfaitement indépendante, comme cela à toujours été son souhait. Ils maîtriseraient le coté hardware de bout en bout, ainsi que le software. Le tout en gagnant de belles marges sur leurs ventes.

Du coté Hackintosh

Ca embêterais un peu les gens quand même. Si Apple produit leurs propres processeurs, il est fort à parier qu’aucun fondeur non relié à Apple en obtiennent les plans et l’architecture. Réglé serait le « problème » du Hackintosh pour Apple, vu qu’aucun processeur ou carte mère issue du monde « PC » ne serait compatible avec leur nouvelle architecture.

Du coté Utilisateur

Fort à parier que personne n’y verrait un quelconque problème. Les machines resteraient puissantes et utilisables en gagnant certainement de l’autonomie ( imaginez la capacité de votre batterie de Macbook branchée dans un iPad Pro qui possède déjà plus de 12h d’autonomie !) ainsi qu’une vélocité importante. Le principal problème serait du coté des développeurs indépendants qui ont encore la possibilité aujourd’hui de passer outre l’App Store pour proposer leurs applications, mais peut-être plus dans ce scénario de fermeture. L’avenir nous dira ce qu’il en est, mais personnellement j’attends impatiemment les nouveautés d’Apple sur leur gamme de machines qui nécessitent une upgrade rapidement.

Je tombe régulièrement sur des posts sur des forums, de personnes souvent nostalgiques du bon vieux temps des sites web réalisés « à la main » en bon vieux php et le tout intégré en tableaux, parce que le web, « c’était mieux avant ».

Le tout regroupé sous la bannière : « Les CMS, c’est pour ceux qui ne savent pas coder ! »

On dirait en lisant ces posts, que développer sur une base CMS (type WordPress) serait équivalent à être un singe savant sachant bouger des cubes, pour que le CMS comme par magie, te vomisse un site.

Stop the Hate

Soyons réalistes 2 minutes, la plupart du temps ce sont des réactions de personnes frustrées, qui ont installé WordPress (par exemple) et qui ont dû passer 20 minutes avec l’outil en main pour essayer de faire un petit truc, sans prendre 5 minutes, ni pour lire la doc, ni pour s’intéresser à la façon de faire et de coder sur ledit CMS.

Quand ce ne sont pas des personnes frustrées de la direction actuelle du web (estimant que ce n’est pas le bon sens) ce sont des personnes qui ne souhaitent pas vraiment se remettre en question et qui ont l’égo suffisamment grand pour se positionner au dessus de tout ça, estimant qu’elles ont raison.

Ils campent donc sur leur façon de faire en brandissant le « c’est fait en php, je connais le php, ça doit marcher avec mon code », en partant de toute façon du postulat de départ que c’est n’est pas bien et que le « fait à la main sera 100 000 fois mieux »

Pas uniquement une histoire de code

Alors oui pour certaines choses, du bon vieux php (ou autre, je ne suis pas sectaire) sera bien plus efficace qu’un CMS. Je ne prône pas l’utilisation de ce type d’outils pour faire tout et n’importe quoi non plus, tirez trop sur un élastique et il cassera à la tête.

C’est avant tout une histoire de réponse au besoin. Pourquoi s’embêter à recréer un moteur de blog complet quand on peut utiliser WordPress, qui est fait expressément pour répondre à ce besoin ?

Faire du custom c’est bien et des fois nécessaire car plus simple et plus rapide qu’en utilisant un CMS. Mais pas toujours…

Comment pouvez-vous dire que vous, tout seul en 1 mois, pouvez faire mieux que 400 personnes qui travaillent exclusivement là dessus depuis 10 ans ?

Ça va votre égo ?

Un refus de standards ?

Pourquoi serait-il néfaste d’utiliser une base de code, une façon de coder, une architecture commune à d’autres développeurs, qui plus est très bien documentée ? Encore plus lorsque les projets web ont tendance à passer de main en main en développeurs au fil de leur évolution ?

Parce que soyons réalistes un peu, personne n’a envie d’aller chercher dans les méandres de votre architecture « full custom trop bien qui rox » et non documentée parce que « Y’a des commentaires dans le code ça suffit à un VRAI développeur pour comprendre » — Comprendre : « JE suis un dév génial, les autres c’est tous des nuls »

Ça va votre égo ?

© Fait « à la main »

Pour commencer il faudrait arrêter de se masturber sur des lignes de code. C’est mignon et le travail bien fait c’est super important, mais quand la beauté du précieux code source devient plus important que le message ou l’info que tu veux partager via le site / service que tu crée, il y a un sérieux problème.

Si le seul argument que tu as pour défendre ta réalisation c’est : « Je l’ai fait à la main », c’est triste.

Car oui, cher développeur qui est peut-être en train de lire ce post, ton précieux et substantifique code ne servira absolument à rien si personne n’est capable d’utiliser le produit/service dont il est la source.

N’oublions pas qu’un site web, on le fait rarement juste pour soit et pour la beauté du code devant la gloire éternelle de l’autel du code qui rox.

Qui va l’utiliser ?

Souvent, tu as un client en face, pas techos pour un sou, qui doit s’avoir l’utiliser, le mettre à jour, le faire évoluer légèrement. Va lui montrer des fichiers HTML et CSS sur un serveur FTP.
Il a pas obligatoirement envie de « subir » une formation complète sur PHP/ HTML / CSS / JS pour modifier les prix sur la carte de son restaurant. Et plus important : il ne devrait pas avoir à le faire quand d’autres solutions existent.

« Oui, ben quand il veut changer quelque chose, il m’appelle et je facture ». Belle mentalité de connard (désolé il n’y a pas d’autre mot) qui « tient » son client par la faiblesse technique de ce dernier et qui en profite pour facturer 100 balles un changement qui à dû lui prendre littéralement 10s.
Spoiler : ce client décampera très vite quand il comprendra que sur d’autres plateformes, il peut le faire tout seul sans se prendre la tête.

Quand c’est un site perso, fait comme bon te semble ! Peut-être que tu en aura marre au bout d’un moment de passer plus de temps sur le code de ton blog que sur les articles que tu écris dessus qui eux, sont la vraie raison d’existence du site.

Réinventer la roue

Tu me diras qu’il est tout à fait faisable de créer un back-office sur mesure simple d’utilisation. Oui, et tu as parfaitement raison. Sauf qu’en fait, tu récrées en faisant cela ton propre CMS (n’oublions pas que CMS veut dire : Content Management System).

Réinventer la roue c’est sympa et certains projets ont vu le jour grâce à ce genre d’initiatives, mais réinventer la roue à chaque projet est une perte de temps, d’énergie et donc d’argent non négociable. Parce que, entre nous, on copie/colle toujours des bouts de code….non ? Et puis créer un CMS complet pour un client qui soit plutôt agréable à utiliser et à regarder, c’est pas la mince affaire.

La question n’est pas de savoir si utiliser un CMS est une bonne chose ou non, la question est de savoir à quel prix, pour quelle utilisation et pour quel client réaliser du full-custom est encore intéressant ?

Un projet full-custom avec un back-office plaisant, (où un UX/UI Designer à travaillé dessus un peu donc..), le tout utilisable sans être sorti de polytechnique n’est pas une chose aisée à réaliser, et coûte un sacré paquet d’argent à être réalisé.

Alors oui, je t’entends déjà dire « on peut utiliser bootstrap et ça fait un truc joli », certes, mais l’architecture du back-office et l’ergonomie, bootstrap ne peut pas s’en occuper.

Tu veux vivre ou écrire du code ?

C’est bête, mais c’est à ça que ça se résume. Nous vivons dans une époque où peu de gens peuvent investir des sommes à 5 chiffres pour un « petit site vitrine, joli, où je peux modifier les contenus assez facilement de temps en temps ».

Je dis 5 chiffres parce qu’à mon sens réaliser le CMS + le site + le design (je parle même pas du suivi de projet et le reste qui se facture également) du site qui tient un tant soit peu la route en dessous me parait hautement improbable. Encore une fois, il s’agit d’une généralité, pas la peine de donner des exemples dans les commentaires de comment vous avez réalisé un éditeur de carte de restaurant super simple avec 3 inputs et 2 boutons.

Donc tu as le choix, cher développeur « PHPFULLCUSTOM4life » soit, ne pas compter tes heures (comprendre : ne pas les facturer) à créer ton propre CMS trop cool pour tout tes projets. (CMS qui potentiellement se fera démonter par ton successeur qui le trouvera tout pourri, et donc installera WordPress à la place) Soit, utiliser un ensemble de briques existantes et éprouvées, et développer sur ces pierres angulaires, de plus bien documentées pour gagner correctement ta vie. Comprendre : ne pas gagner un smic pour 80h / semaine.

Parce qu’un CMS Full Custom, si il n’évolue pas, devient vite obsolète, et face aux nombres de cas et possibilités que tes clients te demanderont, il deviendra une usine à gaz horrible et inutilisable. Et l’évolution… c’est des heures de travail.

Il s’agit d’un équilibre à trouver, entre la flexibilité, la rapidité de réalisation et la marge dégagée, une histoire de ROI en somme.

Je m’adresse beaucoup à des développeurs freelance à travers cet article, mais c’est la même chose pour des petites agences. Payer tout un pôle « CMS maison » n’est pas toujours envisageable quand la majorité des clients sont des PME locales ou régionales (ce qui représente souvent la grande majorité des clients). Je ne parle par contre pas des agences qui ont développé une base de code avec un template et le refourguent à tout leurs clients en changeant les couleurs hein…

L’argument de merde

J’en vois venir dans le fond, brandissant le drapeau de la qualité du code front-end, symbole visible de travail bien fait.

Si tu me dis que des CMS comme WordPress, Drupal etc.. te sortent du code dégueu, je te renverrais simplement à une question : qui produit le code affiché en front ?
Le développeur qui a crée le template, qui utilise les fonctions du CMS, rien de plus.

Le code front est horrible ? Les développeurs ont mal fait leur travail, tout simplement. Le CMS n’aura rien à voir là dedans, il n’ajoute pas de code pourri juste pour le fun, il y a toujours une raison.

C’est de la faute du marteau !

Ce n’est pas l’outil qui décide si il est bien utilisé ou pas. C’est la personne se servant de l’outil qui peut faire des choses bien ou « mal » avec. Personne n’a jamais insulté son marteau en disant « Pourquoi tu plantes mal des clous dans le mur?! »

Alors ? Pour ou contre ?

Ça dépends©.

Tout dépends au final du projet et du client. C’est là que réside la réponse à cette question : dans l’étude du besoin et dans la réponse à y apporter.

Là ou il y a 15 ans, une page faite en tableaux et en php suffisait largement, à l’heure actuelle il est demandé bien plus (de base) à un site web.

Le code full-custom n’est pas mort loin de là, beaucoup de projets, en évoluant arrivent sur du full-custom, car les fonctions de base du CMS utilisé ne suffisent plus ou deviennent trop compliquées.
Certains sites au départ modestes commencent sur un CMS, puis au fur et mesure évoluent dans de grosses solutions, bien plus complexes et répondants au besoin qui à évolué.

Le web et la façon de faire des sites changent, en bien ou en mal, mais s’adaptent aux contextes réels actuels, comme celui de l’économie.
Ne pas s’adapter, c’est être laissé sur le côté et mourrir.

sketch

J’avais déjà réalisé une sélection de plugins pour Sketch il y a pas si longtemps, mais Sketch à beaucoup évolué depuis et l’arrivée de nouveaux venus ainsi que mon expérience sur le logiciel font qu’un nouvel article est nécessaire !

Si il ne devait rester qu’un seul plugin pour Sketch ?

Craft by Invision Labs. Définitivement la meilleure chose que vous puissiez faire à votre workflow est d’utiliser ce meta plugin, regroupant beaucoup de fonctionnalités extrêmement utiles. Plutôt que tout vous détailler, je vous conseille de regarder cette vidéo :

Les fonctionnalités qui m’intéressent le plus personnellement sont la création d’inventaires de styles, qui permettent de vérifier la cohérence de votre design entre autres et les fonctions de duplication.

Find & Replace

findreplace

Définitivement pratique quand on a une erreur typo à changer, find and replace fait exactement ce que son nom indique, il vous permet de chercher et de remplacer du contenu simplement, sans en oublier.

FontFinder

fontfinder

Idéal pour maitriser les fonts utilisées et remplacer certaines en cas de changement, Font Finder va vous permettre de sélectionner certaines fonts très rapidement. Très pratique !

Sketch Iconfont

iconfont

Utiliser des fonticônes est très pratique, mais peut être vraiment embêtant par moment si l’on ne dispose pas d’une page comme ce que nous propose FontAwesome qui regroupe tout les caractères à copier / coller facilement. Sketch Iconfont vous permet d’insérer facilement les glyphes de vos fonticônes et propose encore quelques options pratiques comme les convertir en tracés.

Magic Mirror

magicmirror

Extrêmement pratique pour réaliser des mockups, présentations ou simplement manipuler des images,  Magic Mirror est un véritable couteau suisse qui apporte des fonctionnalités de perspective malheureusement absentes de Sketch.

Rename it

renameit

Si comme moi, vous organisez extrêmement bien vos calques, (hum hum) Rename it vous fera gagner beaucoup de temps en vous permettant de renommer des calques en masse. La principale utilité est la possibilité d’utiliser bon nombre de raccourcis de numération ou de nommage très facilement.

Sketch Mate

Sketch Mate permet d’ajouter beaucoup de raccourcis clavier pour aligner et organiser ses calques et artboards. Si vous utilisez beaucoup les raccourcis, ce plugin est fait pour vous !

Sketch Measure

export-html-measure

Votre développeur / intégrateur préféré est un peu fainéant ? Plus d’excuses pour lui, vous pouvez annoter directement vos maquettes avec Sketch Measure. Encore mieux, ce plugin vous générera un fichier HTML interactif où l’on pourra cliquer et voir tout les éléments et leurs mesures très rapidement. Un must-have.

Sketch Palettes

sketch-palettes

La gestion des palettes dans Sketch est loin d’être optimale, surtout pour les habitués des produits Adobe, qui peuvent exporter / importer et toujours conserver leurs palettes de couleurs préférées. Sketch Palette permet de combler ce vide. Ce plugin vous permettra d’importer / exporter vos palettes facilement.

Social Artboards

artboardssocial

Il n’y a rien de plus embêtant que de chercher les tailles des différents éléments de design des réseaux sociaux actuels. Ce petit plugin va vous permettre de créer des artboards directement aux tailles justes. Social Artboards est pratique si ce genre de missions vous est récurrent.

Content Generator

userpics

Générer automatiquement du contenu peut-être très pratique pour tester ses design d’interface avec des noms plus ou moins longs, des images de stock et ce genre d’éléments qui pourront amener un peu de réalisme dans vos maquettes.  Content Generator s’en chargera très bien.

Cela fait maintenant plus d’un an et demi que je me suis lancé dans l’aventure Hackintosh. Il est largement temps de faire un petit point sur l’aventure jusqu’à présent.

Hackintosh et upgrades matérielles

MOAR RAM

J’ai légèrement mis à jour ma configuration, en ajoutant de la RAM, portant le total à 32Go. C’est un peu overkill, mais définitivement pratique par moment.

71mYmzvrAZL._SL1500_

Handoff

Il y a environ 1 an, j’avais acheté un petit dongle bluetooth, ainsi qu’une carte wifi TP Link WDN4800. Les deux fonctionnaient parfaitement bien sans aucun driver, mais ne me permettaient pas de faire fonctionner Handoff. Je suis donc parti à la quête d’une petit carte PCI Express intégrant un chip BCM94360CD. Chose aisément obtenue à partir d’ebay, mais vous pouvez facilement trouver votre bonheur depuis OSXWIFI. J’ai pu alors connecter la carte et faire fonctionner sans aucun soucis Handoff.

pc

The sound of silence

Le silence est une chose qui me tient particulièrement à coeur. J’ai donc changé mon système de refroidissement du processeur par un watercooling All In One de chez Corsair, le H110.

205560

J’ai aussi changé mon alimentation, la CX600 par une Corsair RM650 complètement modulaire. Le principal intérêt de cette alimentation est son silence. Lorsque la consommation est faible, le ventilateur ne tourne pas. Le deuxième avantage est le cable management. Et histoire d’avoir quelque chose de visuellement plaisant, j’ai craqué pour un set de câbles gainés blanc de chez CableMod.

corsair-rm650-1

CM-CSR-FKIT-KW-R-1-800x800

Le résultat est plutôt sympa :

Résoudre le problème de l’audio

L’audio sur Hackintosh peut-être une source de frustration permanente. Les drivers audio doivent être réinstallés / repatchés à chaque mise à jour du système et la stabilité n’est pas vraiment au rendez-vous. J’ai décidé de me passer de l’audio intégré et d’investir dans un petit DAC, le Fiio E10K.

Fiio-Olympus-E10K_P_600

Ce tout petit appareil se connecte en USB et se charge de toute la partie décodage, il fonctionne sans driver et améliore considérablement la qualité de restitution sonore de vos mp3 et films !

Mises à jour logicielles

Comme vous pouvez le voir sur la capture d’écran suivante, j’ai pu réaliser toutes les diverses mises à jour sans encombre.

Capture d'écran 2016-07-26 22.39.25

Le fait que mon Hackintosh repose sur très peu de kexts spécifiques, sa stabilité est excellente et facilement comparable à celle d’un ordinateur pommé classique. En fait, j’ai moins de « plantages » avec mon Hackintosh qu’avec mon Macbook Pro Retina.

Au final

La stabilité et la facilité des mises à jour m’a vraiment convaincu de la possibilité d’utiliser un Hackintosh comme machine de travail principale. Les machines d’Apple ne me satisfaisant toujours pas, je pense garder cette solution encore pour un petit moment !

Je vous invite à lire mes autres articles sur le sujet si l’aventure vous tente ! En commençant par celui ci.

youtube

Derrière ce titre racoleur bien pute-à-clic, se cache une réalité qui risque d’arriver d’ici pas si longtemps que ça. Vous êtes en train de vous dire, « mais non c’est n’importe quoi, Youtube ne fera jamais payer son service ! »

Vous n’avez foncièrement pas tord. Youtube ne vous fera peut-être jamais payer d’abonnement pour consulter ses millions vidéos. Votre FAI/opérateur internet / mobile, par contre, lui ne va probablement pas s’en gêner.

Pourquoi notre opérateur nous ferait payer Youtube ?

Parce que le débit, c’est cher. Parce que la neutralité du net est un concept qui empêche les FAI de vous facturer la dernière chose qu’ils peuvent : un accès privilégié vers tel ou tel service, comme ce que fait la télévision avec ses bouquets de chaînes depuis plusieurs années. Parce que les débits actuels sont largement suffisants pour accéder à tout internet très rapidement. Parce que la souscription d’un abonnement n’est plus assez lucratif pour votre opérateur.

Voici quelques raisons qui risquent d’amener votre FAI à vous proposer des forfaits internet « illimité » avec option Youtube – SnapChat – Instagram, ou un autre Facebook – Twitter – Periscope.

La plupart des forfaits actuels comptent souvent suffisamment de fair-use pour la plupart des gens. Du coup, la question qui se pose pour un opérateur, c’est comment vous faire souscrire un nouveau forfait ? Pour cela, pas des centaines de solutions, soit miser sur le forfait en lui même, ce qui devient difficile, ces derniers devenus tous « illimité ». Jouer sur le prix, ce qui n’intéresse pas l’opérateur. Reste à tabler sur les services annexes, ou sur le débit.

Orange vient de trouver à ce sujet la solution parfaite pour régler tous ses problèmes.

La neutralité du net remise en cause.

Pour ceux qui suivent un peu les actualités, vous avez dû entendre parler du principe de « la neutralité du net ».  Ce principe très simple définit que n’importe quel site sur internet bénéficie de la même bande passante qu’un autre. Que ce soit votre petit blog de 2 articles ou un site comme Youtube.

Youtube se chargera avec la même vitesse que votre petit blog. C’est comme cela que fonctionne internet actuellement, et c’est quelque chose qui risque bien de changer, si la neutralité du net en remise en cause. Chose que tout les FAI et opérateurs souhaitent ardemment.

En effet, les sites à fort trafic coutent beaucoup d’argent aux fournisseurs d’accès, ils accaparent beaucoup de ressources de leur infrastructure. Bien plus qu’un petit blog.

Qui faire payer ?

Du coup, comment les FAI/opérateurs peuvent-il faire pour récupérer leurs investissements matériels lourds pour subvenir aux demandes de leurs souscripteurs?

En faisant payer Youtube, Facebook leurs investissements ? Ahah ! Youtube et consorts refuseront tout simplement, comme ils ont fait pendant longtemps avec Free en France.

Du coup, l’unique solution est de faire payer les utilisateurs. Malheureusement, personne ne veut souscrire à un forfait moins bon que celui qu’il a actuellement. Pourquoi souscrire à un forfait spécial Youtube – SnapChat – Periscope, certainement plus cher que le forfait actuel ?

C’est là ou Orange à eu l’idée du siècle avec la 5G.

Orange développe depuis quelques temps la 5G, successeur de la 4G actuelle, celle-ci à été développée d’une telle façon qu’il est impossible techniquement de garantir une neutralité du net en utilisant cette technologie. Orange à donc forgé son propre futur modèle économique, en prenant en otage les lois européennes.

La technologie sur laquelle repose la 5G à de forts « avantages ».

Je cite ici Numérama :

En effet, le projet de réseau mobile en cours de standardisation a la particularité d’être adaptatif, en fonction des besoins de chaque application. Le réseau pourra atteindre des vitesses de pointe de plus de 10 Gbps, offrir moins d’un milliseconde de latence, ou exiger très peu de ressources de calcul pour gagner en autonomie, mais ces performances dépendront des protocoles et des fréquences mobiles choisis par les développeurs en fonction de leurs besoins.

Histoire de mieux comprendre, voici un schéma qui va vous permettre de mieux appréhender la chose.

huawei-5gcube

Vous me direz, c’est pas si mal, de prioriser tout ça, effectivement, en fonction des besoins, il est intéressant de proposer des caractéristiques différentes.

Comment utiliser la 5G pour arriver à ses fins

En effet, dans l’état actuel des choses, il n’est pas possible de proposer une solution comme celle-ci, du fait de la déjà fragile protection de la neutralité du net actuel.

Orange à donc mis ses lobbyistes sur le coup et à produit un magnifique rapport à la commission Européenne, qui stipule que l’avènement de cette technologie miraculeuse que tout le monde à absolument besoin ne pourrait se faire sans l’abandon de la neutralité du net.

Mettant bien l’accent sur la nécessité de modernisation etc… de quoi faire craquer n’importe quel bon politique.

Connaissant tous le fonctionnement de nos administrations, leur sensibilité aux lobbys et leurs connaissances techniques sur ces sujets,  il va sans dire que ce rapport va faire forte impression et sera accueilli positivement, amenant donc à la suppression de ce concept fondateur de l’internet tel que Sir Tim Berners Lee l’à imaginé.

Le futur est bien sombre.

A partir du moment où ce principe sera enterré, rien n’empêchera légalement les opérateurs de pratiquer les mêmes méthodes sur les forfaits internet ou mobiles, arguant d’un meilleur débit pour tout ce qui est VOD par exemple.

Nous arriverons à choisir des forfaits à tiroirs, proposants un accès prioritaire à certains services, bien entendu, le forfait « de base » restera peu cher, mais qui aurait envie d’avoir un forfait où il est difficile d’avoir accès à un service, car l’on est pas prioritaire ?

L’égalité d’accès à l’information

Car là est bien le problème en fait. Ceci va créer des disparités dans un monde où il n’y en a déjà que trop. Les personnes les plus défavorisés n’auront pas le même accès à l’information que les plus riches. Vous ne pourrez pas vous payer l’accès « prioritaire » à Wikipédia ? Tant pis pour vous.

Une méthode qui me révolte.

Est-ce vraiment ce que nous voulons ? Tout ceci ne nous dérange-t-il pas ? Pour ma part, je suis de plus en plus choqué de ce genre de méthodes, de ces nouvelles solutions magiques permettants de discriminer certains groupes de personnes, de ce racket continuel, de cette prise d’otage des lois pour simplement produire plus de de bénéfices au détriment des utilisateurs et des libertés fondamentales. 

Mais ceci ne semble pas déranger beaucoup de monde, et c’est bien dommage.

Sous titres sur synology

Si vous regardez beaucoup de séries en VO, il est souvent pratique d’avoir les sous-titres à portée de main. Aller les chercher dans les limbes de l’internet est quand même très chiant avouons le. Fort heureusement, il est possible d’automatiser tout cela très simplement.

Typiquement, vous récupérez régulièrement des épisodes de série ou des films dans un dossier spécifique de votre NAS (ici /volumeX/Downloads/) et vous souhaitez que votre NAS aille chercher régulièrement les sous-titres de ceux-ci.

Ce petit tuto à été réalisé sur un NAS Synology sous DSM6, mais il est tout à fait possible de réaliser la même chose sur d’autres machines / systèmes.

Commencez par vous connecter en SSH sur votre NAS.
Rendez-vous dans votre dossier personnel (ou n’importe quel dossier)

Créez un répertoire « scripts »

Puis lancez la commande suivante pour récupérer un petit utilitaire Python nommé pip.

Installez l’utilitaire via :

Installez Subliminal (c’est l’utilitaire qui va faire tout le travail pour vous)

Puis créez un fichier dl-sous-titres.sh (ou un nom qui vous convient) contenant ce qui suit :

Si vous souhaitez plus d’informations sur les paramètres de subliminal, je vous invite à lire la documentation.

Une fois cela fait, il ne vous reste qu’à paramétrer DSM pour lancer la tâche régulièrement.

Allez dans l’application « Paramètres » de votre NAS, puis « Tâches planifiées »

taches-planifies-synology

Créez une nouvelle Tâche, via « Créer > Tâche Planifiée > Script Défini par l’utilisateur »

taches planifiées synology

Donnez lui un nom, puis allez dans l’onglet « Programmer »

taches programmées synology

Choisissez la récurrence qui vous convient, puis une fois réglé, rendez-vous dans le dernier onglet « paramètres de tâche ».

paramètres de tâches synology

Renseignez l’emplacement de votre script dans l’invite, puis enregistrez tout ça.

Voilà, c’est terminé, votre script se lancera automatiquement à intervalle régulier. N’hésitez pas à créer d’autres tâches au besoin !

Il n’est rien de plus pénible lorsque l’on possède plusieurs machines que de passer son temps à configurer les différentes applications pour qu’elles fonctionnent de la même manière.

Mackup synchronise les paramètres de vos applications simplement

Ce petit utilitaire très rapide à mettre en place pour Mac OSX va utiliser un service de synchronisation (comme dropbox, ou iCloud ) pour que vous puissiez synchroniser les paramètres de vos applications.

Une fonctionnalité qui serait une utilisation vraiment intéressante d’iCloud par exemple… Apple, si tu m’entends…

Comment ça fonctionne en vrai ?

Mackup crée simplement un lien entre votre répertoire de paramètres ( ~/library/preferences) et votre dossier à synchroniser. Le reste, c’est votre service de synchronisation qui s’en charge.

Les services de synchronisation pris en charge sont nombreux, comme :

  • Dropbox
  • Google Drive
  • Copy
  • iCloud
  • Box
    … et tout ce qui est capable de synchroniser des dossiers.

Installation

En terme de pré-requis et de configuration, il vous faudra, soit, installer Homebrew ou installer Mackup via pip, puis configurer le l’utilitaire avec quelques commandes à entrer dans votre terminal.

Direction le terminal : (/Applications/Utilitaires/terminal.app) sur le Mac « source »

Avec Homebrew :

Avec Pip :

Puis simplement lancer l’utilitaire

Voilà c’est fini ! Oui c’était rapide ! Laissez la synchro Dropbox se faire toute seul, puis allez sur votre deuxième machine, installez mackup de nouveau, puis lancez une restauration :

La liste d’applications prise en charge est gigantesque. Je vous invite à vous rendre sur la page du projet sur github pour plus d’informations.

Bonne synchronisation !

hackintosh

J’ai récemment remarqué quelque chose sur mon hackintosh, certains ports USB 2 ou 3 semblaient ne pas fonctionner de la manière attendue, certains USB3 n’apparaissaient pas, et d’autres semblaient être en USB2. Très bizarre, et définitivement handicapant…

Apple à grandement modifié le fonctionnement des ports USB sur El Capitan, et l’a étroitement lié avec le SMBios de leurs machines. Si pour un Mac Officiel, aucun soucis lors des mises à jours, sur un Hackintosh, cela peut poser problème. Problème que j’ai rencontré avec mon système.

Après vérification, l’explication était assez simple. Le SMBios que j’utilise utilise un profil d’iMAC 14,2 qui ne comprends pas autant de ports USB3 / USB2 que ma carte mère et mon boitier (Fractal Design R5) proposent. La limite était donc atteinte, et l’attribution des ports USB un peu aléatoire.

Quelques recherches plus tard, je voyais plein de choses, comme éditer un DSDT à la main, modifier l’attribution des lignes PCI etc.. Bref, un bordel sans nom.

Jusqu’à ce que je trouve la solution très simple. Placer 2 petits kexts dans le répertoire qui va bien de l’EFI de Clover. Leur petits noms ?

FakePCIID_XHCIMux.kext et FakePCIID.kext

Un reboot plus tard, et tout fonctionnait parfaitement.

Je vous laisse un zip comprennant les 2 kexts à placer dans /EFI/CLOVER/kexts/10.11/

Télécharger Kexts

imessage

Vous avez reçu un tout nouveau Mac ou venez de réinstaller votre système d’exploitation et vous venez de vous apercevoir que les iMessages que vous avez reçus ne sont pas synchronisés entre vos machines ?
Pas le peine de crier au scandale, cela veut simplement dire qu’Apple ne conserve pas vos messages sur leur serveur. Ce qui est, avouons le, une bonne nouvelle.

Mais du coup comment transférer mes anciens messages sur mon nouvel OS?

Spoiler : Il n’est pas possible de récupérer d’anciens messages en cas de formatage / réinstallation sans TimeMachine précédent.

Trouver ses messages.

  • Aller dans Messages, puis préférences
  • Cochez « Enregistrer l’historique lors de la clotûre des conversations »

messages-transfer-0

  • Aller dans le Finder et rendez vous dans le dossier ~/Library/Messages
  • Pour y aller, sélectionnez « Aller » puis « Aller au dossier » et coller « ~/Library/Messages » dans l’invite.

messages-transfer-1

  • Vous devriez voir 2 dossiers, Archives et Attachements ainsi qu’un fichier chat.db

messages-transfer-2

Archive contient tous vos ancien messages de conversations que vous avez fermé ou archivées. Attachements contient toutes les images et la vidéo de ces conversations. Le chat.db contient toutes les informations de votre historique de messages actif.

Les conversations archivées sont étiquetés assez clairement: Elles sont toutes dans des dossiers marqués par date, et les fichiers vous donnent le nom du participant ainsi que la date et l’heure. Essayez d’en ouvrir un, et vous verrez la conversation s’ouvrir dans l’app Messages.

L’archive des pièces jointes est une autre histoire: Il est conçu principalement comme une sauvegarde pour les messages, il n’est pas fait pour que quelqu’un aille fouiner, les dossiers sont nommés avec des caractères numériques incompréhensibles. Vous pouvez trouver photos et vidéos archivés ici, mais préparez-vous à faire quelques recherches.

  • Faites donc un zip ou copiez tout le répertoire ~/Library/Messages sur une clé usb, Dropbox ou autre, pour le transférer vers votre nouvelle machine / OS.

Sur votre autre machine

  • Fermez Messages si l’application est ouverte
  • Rendez-vous dans le répertoire ~/Library/Messages
  • Si il contient déjà des données, faites en un backup sur votre Bureau par exemple.
  • Supprimez tout ce qui est contenu dans ce répertoire
  • Collez les fichiers que vous avez récupéré dans ce répertoire.
  • Ne démarrez pas l’application Messages, mais re-démarrez votre Mac.

Si maintenant vous ouvrez l’app Messages, vous devriez y trouver les messages transférés.

Depuis TimeMachine

Si vous souhaitez récupérer vos Messages depuis un TimeMachine, les fichiers se trouvent dans votre sauvegarde TimeMachine, accessible via le Finder, comme suit :

messages-transfer-timemachine

Une fois dans votre repertoire personnel, répétez l’opération ci-dessus, et voilà ! :)