Stop Apple ! Arrêtez de faire n’importe quoi !

Hier soir j’ai regardé la Keynote « Macbook » d’Apple.
Et ce matin, j’ai lu certains articles de la presse spécialisée, mais surtout aussi les commentaires et avis des gens sous ces articles traitant la marque à la pomme de tout les noms et tout les maux, se plaignants de tout et surtout n’importe quoi.

Derrière ce titre un peu pute à clic, j’aimerais revenir sur certains points et sur les réactions suscitées par ces nouvelles machines.

Petit tour d’horizon de la connerie. Continuer la lecture de « Stop Apple ! Arrêtez de faire n’importe quoi ! »

GNU/Linux n’est toujours pas une vraie alternative grand public

J’ai récemment récupéré un petit ThinkPad x220 comme portable de secours. C’est un portable assez ancien, mais qui dispose tout de même d’un i5 quad core 2,6Ghz, 4go de Ram et d’un SSD.

Bien qu’il soit possible d’y installer OSX relativement facilement dessus, j’ai voulu en profiter pour tester et faire le tour des diverses distributions Linux actuelles.

Grand fan d’Archlinux pendant très longtemps, j’ai depuis de longues années maintenant un Macbook et me suis un peu éloigné de l’univers Linux, c’était l’occasion de renouer quelques liens avec ce système que j’affectionne beaucoup.

Quelle distribution installer?

La vaste question a été alors de quelle distribution j’allais installer. J’ai décidé de chercher parmi les plus populaires, et de les tester rapidement, avec quelques critères qui sont les suivants :

  • Efficacité d’installation
  • Simplicité de configuration
  • Rapidité d’utilisabilité
  • Bonne reconnaissance matérielle de base
  • Visuellement réussie et actuelle
  • Rolling Release si possible

J’ai essayer de chercher quelque chose de plutôt grand public réunissant tout ce qu’on demande d’un système d’exploitation en 2016 donc, pour espérer proposer une réelle alternative aux systèmes que sont macOS et Windows.

Je me suis donc rendu sur Distrowatch, regardé les distributions les plus en vogue, et ai donc téléchargé les distributions suivantes :

  • Fedora 24
  • Ubuntu 16.04
  • Debian 8
  • Antergos
  • Linux Mint
  • Open Suse

Faisons un petit tour ensemble de ces distributions.

Disclaimer

Soyons clair tout de suite, je ne me pencherais pas sur les différences techniques de ces distributions, mais sur le ressenti utilisateur uniquement. Techniquement, GNU/Linux à énormément évolué ces dernières années, malheureusement, ces changements sont peu visibles pour les utilisateurs.

Comme m’ont fait remarqué sur twitter plusieurs personnes, le débat pourrait être orienté autour des « DE » – Desktop environnement, que sont Gnome 3, Cinnamon, KDE… A juste titre.

Le fait est que beaucoup d’utilisateurs ne savent pas qu’il est possible de choisir la plupart des distributions présentées ici avec un environnement différent de celui proposé par défaut. Typiquement, il existe une version d’Ubuntu n’utilisant pas Unity, mais KDE par défaut.

Mon point de vue ici est le point de vue d’une personne « non-technique » souhaitant se tourner vers GNU/Linux sans forcément beaucoup se prendre la tête et chercher beaucoup.

Fedora

J’ai été très agréablement séduit par Fedora, bien que l’installation soit légèrement plus complexe qu’un classique Ubuntu. L’outil de gestion des partitions n’est pas très intuitif, et on passe un peu de temps à se faire peur et à se demander si on vient pas d’effacer complètement le petit Windows qui traine sur une autre partition.

Une fois installée on est accueilli par un écran de configuration simple et rapide qui se chargera de configurer vos mails, agendas etc.. L’interface Gnome 3 est sobre, l’ensemble est plutôt cohérent et visuellement plutôt agréable. On sent une distribution mature qui saura séduire autant les utilisateurs lambda que les plus éclairés. L’ensemble logiciel de base permet de travailler directement sans investir beaucoup d’énergie à la configuration.

J’ai beaucoup apprécié le fait que Fedora mise beaucoup sur l’aspect libre  et qu’il faille un peu d’huile de coude pour installer des paquets non libres. Rien de fou, mais il m’a fallu quelques minutes pour trouver comment faire et installer les codecs vidéos nécessaires à la lecture d’un petit MKV de film de vacance. Pas sûr qu’un utilisateur lambda y arrive, le passage par le terminal est nécessaire. La doc de Fedora n’étant pas très simple à appréhender non plus.

Bref, Fedora semble être un système solide et bien fini, destinée aux utilisateurs un peu plus éclairés mais qui propose une alternative relativement complète et séduisante.

Ubuntu

J’entends déjà tout les barbus se lever et me dire qu’Ubuntu est devenue une distribution avec beaucoup de code propriétaire etc… Et je suis d’accord avec eux !

Mais Ubuntu est simple d’installation, propose des options compréhensibles, surtout au niveau de la gestion des partitions. J’apprécie le fait qu’il propose aussi l’installation de paquets propriétaires comme une option, c’est simple, didactique et efficace.

L’interface Unity est une question de goût, certains aiment, d’autres détestent mais Unity s’avère très efficace sur de petits écrans, la fusion de la barre de titre avec la barre de menu fait gagner de la place, idem pour le placement du dock sur la gauche.

Tout fonctionne directement après l’installation et il n’y a pas besoin de beaucoup de configuration pour avoir un système complet et opérationnel. L’offre logicielle est très complète.

L’utilisation d’Ubuntu est assez didactique, on trouve les options qu’on demande à un système moderne rapidement, c’est simple à configurer et pas prise de tête. Le fait de pouvoir passer depuis récemment sur un genre de Store pour installer ses apps est une bonne idée, mais il manque encore beaucoup de choses à ce niveau.

Ubuntu est un système bien fini, l’environnement graphique est agréable et chaleureux, l’ensemble est cohérent et agréable à utiliser.

Linux Mint

Linux Mint existe en 2 versions, une basée sur Ubuntu et l’une sur Debian. Il semblerait que celle qui évolue le mieux est celle basée sur Ubuntu. La version debian semble être un peu à l’abandon. Visuellement correcte bien qu’un peu désuette, c’est une Ubuntu repackagée pour ceux qui n’aiment pas Unity, et tire donc ses forces et faiblesses de ce système.

L’environnement par défaut proposé est Cinnamon, dont le thème est un peu désuet et visuellement daté. Le système par ailleurs est très proche d’un  Ubuntu dont il est issu.

Debian

Debian semble évoluer tellement lentement que j’ai eu l’impression qu’il n’avait presque pas bougé depuis 5 ans.

Ok, la communauté Debian vise avant tout une stabilité à toute épreuve, et ce n’est pas vraiment une distribution orientée grand public, mais elle reste par sa stabilité un choix à envisager pour les utilisateurs les plus avertis.

Ce qui m’a un peu refroidi, c’est l’aspect visuel de l’ensemble, c’est brut, fonctionnel, peu d’attention y à été mis. On a un joli fond d’écran, le reste, ce sont des paquets de base, sans aucun ajout. La distribution intègre le strict minimum et il faudra passer un grand temps à chercher tout ses logiciels et paquets nécessaires pour se créer son environnement.

Certains dirons que c’est une force et c’est indéniable, mais ça risque de calmer un grand nombre de personnes, qui n’ont pas envie de passer des heures à installer tout les paquets nécessaires pour avoir le minimum syndical habituel pour pouvoir commencer à travailler un peu.

Antergos

Dérivée d’Archlinux, Antergos tire sa force de son installation graphique et du fait qu’il installe et configure Archlinux automatiquement et simplement. Ce qui définitivement pas le cas d’Archlinux.

On peut choisir entre divers environnements de bureaux à l’installation, et les options sont efficaces. Ce qui reste dommage sur Antergos, c’est l’aspect très « amateur » qui ressort de cette distribution visuellement. On sent qu’ils ont essayé de faire quelque chose, mais l’ensemble manque de cohérence, c’est pas vraiment joli. Le public visé doit être les personnes qui n’ont pas envie de se taper l’installation longue et relativement complexe d’Archlinux. De ce côté là, cette distribution remporte la mise. Pour le reste, c’est plutôt moyen.

Open Suse

Open Suse est une distribution très propre et polie, d’une grande stabilité, plutôt orientée pro, mais tout à fait utilisable pour un particulier un peu averti. L’utilisation de KDE comme environnement par défaut en fera un bon choix pour tout ceux qui ont du mal à switcher depuis Windows. Le système est très abouti et agréable à utiliser. L’installation est par contre beaucoup plus chaotique et complexe,  destinée à un public plus averti.

 C’est pas terrible tout ça…

A ma grande surprise, rien n’a vraiment évolué en 5-6 ans visuellement parlant, et ça m’attriste un peu. Si un grand progrès à été réalisé sur la partie installation et technique de la plupart des distributions, avec une méthode d’installation très proche pour chacune d’entre elles, il n’en est pas de même pour l’expérience utilisateur en elle même.

Certaines distributions sont visuellement plutôt réussies, mais d’autres accusent le coup, c’est fonctionnel certes mais bien souvent ça s’arrête là. L’offre logicielle « out of the box » est bien souvent complète, c’est appréciable et bienvenu.

Mais malheureusement, visuellement, rien qui puisse vraiment attirer l’oeil d’une personne habituée aux systèmes que sont macOS ou Windows en 2016.

Le but n’est pas le même c’est certain, mais je me verrais mal proposer sérieusement une distribution Linux pour remplacer un Windows ou un macOS à quelqu’un. Ubuntu reste le choix de beaucoup et c’est parfaitement compréhensible, c’est celle qui se rapproche le plus d’une vision grand public.

Certaines distributions comme Elementary réussissent le coup de proposer une interface plutôt réussie, mais on y voit une grande inspiration de l’interface macOS et c’est dommage. Je pense qu’il est temps que plus de designers s’occupent du cas des apps libres, pour proposer une réelle alternative sérieuse et pour faire évoluer ce système.

Du coup, personnellement, je me suis orienté sur Fedora, qui réunit à mon sens beaucoup de qualités.

 

Et si Apple abandonnait les processeurs Intel ?

Avec le retard de la nouvelle gamme de Macbooks, le non renouvellement de machines vieillissantes, et la direction que tends à emprunter Apple dans ses décisions, je me suis posé pas mal de questions quand à l’avenir du Hackintosh, et des macs en général. Je vous livre ma petite réflexion.

Et si Apple abandonnait le x64 ?

Apple n’aime pas être dépendant d’un constructeur, que ce soit par le passé pour leurs cartes graphiques ou pour les processeurs de leurs iPhones / iPad, c’est quelque chose qui les embête car ils y voient un danger.  Apple par le passé à changé de type de processeurs sur leur machines de bureau, en passant du PowerPC à Intel. Migration très bien réussie dans le temps, et dont les éditeurs de logiciels s’étaient rapidement accommodés. Apple utilise donc depuis longtemps la même architecture et globalement le même matériel qu’un PC standard. C’est d’ailleurs ce qui à permis au Hackintosh de se développer.

Pourquoi Apple ne répéterais pas l’histoire en produisant eux même les futurs CPUs de leurs machines ?

On a vu lors des derniers benchmarks de l’iPad Pro, que les performances de son CPU étaient quasiment comparables à celles du petit Core M équipant les nouveaux Macbooks ultra fins, la partie graphique de leur CPU étant aussi très correcte. Lorsqu’on y regarde de plus près, qu’est ce qui empêcherais Apple d’opérer ce changement radical ?

Apple produit déjà leurs propres cartes mères, changer de CPU pour utiliser un ARM ne leur serait pas d’un effort surhumain. De plus, le processeur équipant l’iPad Pro dispose d’une excellente capacité graphique et d’une autonomie record, tout ce qu’on aime dans un portable.

Quid des logiciels ?

On voit déjà depuis quelques temps la volonté d’Apple de fermer tout l’écosystème logiciel en forçant les développeurs à publier leurs apps sur l’App Store. L’évidence la plus flagrante est l’abandon pur et simple de l’option dans macOS Sierra d’autoriser l’utilisation d’applications téléchargés n’importe où, en ne proposant uniquement les options « App Store » et « App Store et développeurs identifiés », donc validés par Apple.

Développer une application pour macOS nécessite aujourd’hui d’utiliser Xcode, comme pour une application iOS. Mais regardons les petits changements subtils qu’Apple à opéré récemment.

L’exemple iOS

Pour proposer une App sur le store iOS, il est maintenant nécessaire non plus d’envoyer une sorte de binaire compilé sur les serveurs d’Apple, mais d’une sorte de version semi-compilée avec un descripteur. Apple se charge pour vous de compiler et de proposer des versions différentes en fonction des devices où l’app est téléchargée. De cette manière l’app que vous téléchargerez depuis le store sera plus légère et nous n’aurez pas de code 32 bits sur votre iPhone 6s, et pas de code 64 bits sur votre iPhone 5. Derrière cette optimisation non négligeable, Apple à joué un jeu très malin. Rien ne les empêcherait demain par exemple, d’entièrement changer l’architecture et le type de processeurs de leurs iPhones de manière transparente pour le développeur et l’utilisateur, vu qu’ils en détiennent le compilateur final, transformant votre code issu d’Xcode en binaire utilisable par votre iPhone.

Qu’est ce qui empêcherais Apple de procéder au même changement sur le Mac App Store ? Rien du tout, et je pense que c’est en route, l’avenir nous dira si j’avais raison. Apple pourrait ainsi changer les spécs de ses machines à leur gré sans être tributaire et dépendant des nouvelles avancées d’Intel dans le domaine, ils maitriseraient alors de nouveau toute la chaîne du hardware au software, le tout leur permettant de réellement « sceller » leurs machines, et ainsi procéder à ce hold-up géant auprès des développeurs en récupérant 30% de leurs ventes. Tout ça derrière un argument de sécurité et de « developper/user friendly ».

Les GPUs, c’est Has Been.

On voit depuis un certain temps qu’Apple délaisse de plus en plus les capacités graphiques de leurs machines, et le milieu pro de manière générale. La dernière mise à jour du Mac Pro date de 2013, et hormis le Macbook Pro Retina 15″ haut de gamme, et les iMacs 5K, plus aucune machine d’Apple n’inclus un GPU. Lorsqu’un GPU est présent, il est très limité et castré pour que ce dernier ne chauffe pas dans le petit encombrement qu’il doit occuper. Apple délaissant clairement le marché pro, on peut imaginer relativement simplement un abandon pur et simple des GPU dans les Macbooks Pro, cette option étant de toute façon limitée à une seule machine.

Si la puissance des processeurs actuels crée par Apple dans les iPad Pro est impressionnante, elle n’est pas encore comparable à un processeur de machine de bureau comme un i5 ou i7 que ce soit sur la partie CPU ou GPU. On peut imaginer une transition en deux étapes, d’un changement d’architecture dans la gamme portable puis plus tard la transition vers les machines de bureau.

La partie graphique des processeurs qu’Apple crée gère déjà très bien des jeux 3D assez demandeurs, dans de très hautes résolutions, à des vitesses d’affichage impressionnantes. L’arrivée de Metal, la nouvelle API graphique devant remplacer OpenGL dans macOS et ses gains de performances non négligeables (cherchez l’exemple avec Word of Warcraft) permettrait à Apple d’abandonner Nvidia ou AMD en plus et de conserver une puissance graphique non négligeable.

LE rêve d’Apple

Si Apple opère ce changement, que je pense tout à fait réalisable, Apple réussirait à complètement maitriser tout son écosystème et être parfaitement indépendante, comme cela à toujours été son souhait. Ils maîtriseraient le coté hardware de bout en bout, ainsi que le software. Le tout en gagnant de belles marges sur leurs ventes.

Du coté Hackintosh

Ca embêterais un peu les gens quand même. Si Apple produit leurs propres processeurs, il est fort à parier qu’aucun fondeur non relié à Apple en obtiennent les plans et l’architecture. Réglé serait le « problème » du Hackintosh pour Apple, vu qu’aucun processeur ou carte mère issue du monde « PC » ne serait compatible avec leur nouvelle architecture.

Du coté Utilisateur

Fort à parier que personne n’y verrait un quelconque problème. Les machines resteraient puissantes et utilisables en gagnant certainement de l’autonomie ( imaginez la capacité de votre batterie de Macbook branchée dans un iPad Pro qui possède déjà plus de 12h d’autonomie !) ainsi qu’une vélocité importante. Le principal problème serait du coté des développeurs indépendants qui ont encore la possibilité aujourd’hui de passer outre l’App Store pour proposer leurs applications, mais peut-être plus dans ce scénario de fermeture. L’avenir nous dira ce qu’il en est, mais personnellement j’attends impatiemment les nouveautés d’Apple sur leur gamme de machines qui nécessitent une upgrade rapidement.

CMS, pour ou contre, l’éternelle question

Je tombe régulièrement sur des posts sur des forums, de personnes souvent nostalgiques du bon vieux temps des sites web réalisés « à la main » en bon vieux php et le tout intégré en tableaux, parce que le web, « c’était mieux avant ».

Le tout regroupé sous la bannière : « Les CMS, c’est pour ceux qui ne savent pas coder ! »

On dirait en lisant ces posts, que développer sur une base CMS (type WordPress) serait équivalent à être un singe savant sachant bouger des cubes, pour que le CMS comme par magie, te vomisse un site.

Stop the Hate

Soyons réalistes 2 minutes, la plupart du temps ce sont des réactions de personnes frustrées, qui ont installé WordPress (par exemple) et qui ont dû passer 20 minutes avec l’outil en main pour essayer de faire un petit truc, sans prendre 5 minutes, ni pour lire la doc, ni pour s’intéresser à la façon de faire et de coder sur ledit CMS.

Quand ce ne sont pas des personnes frustrées de la direction actuelle du web (estimant que ce n’est pas le bon sens) ce sont des personnes qui ne souhaitent pas vraiment se remettre en question et qui ont l’égo suffisamment grand pour se positionner au dessus de tout ça, estimant qu’elles ont raison.

Ils campent donc sur leur façon de faire en brandissant le « c’est fait en php, je connais le php, ça doit marcher avec mon code », en partant de toute façon du postulat de départ que c’est n’est pas bien et que le « fait à la main sera 100 000 fois mieux »

Pas uniquement une histoire de code

Alors oui pour certaines choses, du bon vieux php (ou autre, je ne suis pas sectaire) sera bien plus efficace qu’un CMS. Je ne prône pas l’utilisation de ce type d’outils pour faire tout et n’importe quoi non plus, tirez trop sur un élastique et il cassera à la tête.

C’est avant tout une histoire de réponse au besoin. Pourquoi s’embêter à recréer un moteur de blog complet quand on peut utiliser WordPress, qui est fait expressément pour répondre à ce besoin ?

Faire du custom c’est bien et des fois nécessaire car plus simple et plus rapide qu’en utilisant un CMS. Mais pas toujours…

Comment pouvez-vous dire que vous, tout seul en 1 mois, pouvez faire mieux que 400 personnes qui travaillent exclusivement là dessus depuis 10 ans ?

Ça va votre égo ?

Un refus de standards ?

Pourquoi serait-il néfaste d’utiliser une base de code, une façon de coder, une architecture commune à d’autres développeurs, qui plus est très bien documentée ? Encore plus lorsque les projets web ont tendance à passer de main en main en développeurs au fil de leur évolution ?

Parce que soyons réalistes un peu, personne n’a envie d’aller chercher dans les méandres de votre architecture « full custom trop bien qui rox » et non documentée parce que « Y’a des commentaires dans le code ça suffit à un VRAI développeur pour comprendre » — Comprendre : « JE suis un dév génial, les autres c’est tous des nuls »

Ça va votre égo ?

© Fait « à la main »

Pour commencer il faudrait arrêter de se masturber sur des lignes de code. C’est mignon et le travail bien fait c’est super important, mais quand la beauté du précieux code source devient plus important que le message ou l’info que tu veux partager via le site / service que tu crée, il y a un sérieux problème.

Si le seul argument que tu as pour défendre ta réalisation c’est : « Je l’ai fait à la main », c’est triste.

Car oui, cher développeur qui est peut-être en train de lire ce post, ton précieux et substantifique code ne servira absolument à rien si personne n’est capable d’utiliser le produit/service dont il est la source.

N’oublions pas qu’un site web, on le fait rarement juste pour soit et pour la beauté du code devant la gloire éternelle de l’autel du code qui rox.

Qui va l’utiliser ?

Souvent, tu as un client en face, pas techos pour un sou, qui doit s’avoir l’utiliser, le mettre à jour, le faire évoluer légèrement. Va lui montrer des fichiers HTML et CSS sur un serveur FTP.
Il a pas obligatoirement envie de « subir » une formation complète sur PHP/ HTML / CSS / JS pour modifier les prix sur la carte de son restaurant. Et plus important : il ne devrait pas avoir à le faire quand d’autres solutions existent.

« Oui, ben quand il veut changer quelque chose, il m’appelle et je facture ». Belle mentalité de connard (désolé il n’y a pas d’autre mot) qui « tient » son client par la faiblesse technique de ce dernier et qui en profite pour facturer 100 balles un changement qui à dû lui prendre littéralement 10s.
Spoiler : ce client décampera très vite quand il comprendra que sur d’autres plateformes, il peut le faire tout seul sans se prendre la tête.

Quand c’est un site perso, fait comme bon te semble ! Peut-être que tu en aura marre au bout d’un moment de passer plus de temps sur le code de ton blog que sur les articles que tu écris dessus qui eux, sont la vraie raison d’existence du site.

Réinventer la roue

Tu me diras qu’il est tout à fait faisable de créer un back-office sur mesure simple d’utilisation. Oui, et tu as parfaitement raison. Sauf qu’en fait, tu récrées en faisant cela ton propre CMS (n’oublions pas que CMS veut dire : Content Management System).

Réinventer la roue c’est sympa et certains projets ont vu le jour grâce à ce genre d’initiatives, mais réinventer la roue à chaque projet est une perte de temps, d’énergie et donc d’argent non négociable. Parce que, entre nous, on copie/colle toujours des bouts de code….non ? Et puis créer un CMS complet pour un client qui soit plutôt agréable à utiliser et à regarder, c’est pas la mince affaire.

La question n’est pas de savoir si utiliser un CMS est une bonne chose ou non, la question est de savoir à quel prix, pour quelle utilisation et pour quel client réaliser du full-custom est encore intéressant ?

Un projet full-custom avec un back-office plaisant, (où un UX/UI Designer à travaillé dessus un peu donc..), le tout utilisable sans être sorti de polytechnique n’est pas une chose aisée à réaliser, et coûte un sacré paquet d’argent à être réalisé.

Alors oui, je t’entends déjà dire « on peut utiliser bootstrap et ça fait un truc joli », certes, mais l’architecture du back-office et l’ergonomie, bootstrap ne peut pas s’en occuper.

Tu veux vivre ou écrire du code ?

C’est bête, mais c’est à ça que ça se résume. Nous vivons dans une époque où peu de gens peuvent investir des sommes à 5 chiffres pour un « petit site vitrine, joli, où je peux modifier les contenus assez facilement de temps en temps ».

Je dis 5 chiffres parce qu’à mon sens réaliser le CMS + le site + le design (je parle même pas du suivi de projet et le reste qui se facture également) du site qui tient un tant soit peu la route en dessous me parait hautement improbable. Encore une fois, il s’agit d’une généralité, pas la peine de donner des exemples dans les commentaires de comment vous avez réalisé un éditeur de carte de restaurant super simple avec 3 inputs et 2 boutons.

Donc tu as le choix, cher développeur « PHPFULLCUSTOM4life » soit, ne pas compter tes heures (comprendre : ne pas les facturer) à créer ton propre CMS trop cool pour tout tes projets. (CMS qui potentiellement se fera démonter par ton successeur qui le trouvera tout pourri, et donc installera WordPress à la place) Soit, utiliser un ensemble de briques existantes et éprouvées, et développer sur ces pierres angulaires, de plus bien documentées pour gagner correctement ta vie. Comprendre : ne pas gagner un smic pour 80h / semaine.

Parce qu’un CMS Full Custom, si il n’évolue pas, devient vite obsolète, et face aux nombres de cas et possibilités que tes clients te demanderont, il deviendra une usine à gaz horrible et inutilisable. Et l’évolution… c’est des heures de travail.

Il s’agit d’un équilibre à trouver, entre la flexibilité, la rapidité de réalisation et la marge dégagée, une histoire de ROI en somme.

Je m’adresse beaucoup à des développeurs freelance à travers cet article, mais c’est la même chose pour des petites agences. Payer tout un pôle « CMS maison » n’est pas toujours envisageable quand la majorité des clients sont des PME locales ou régionales (ce qui représente souvent la grande majorité des clients). Je ne parle par contre pas des agences qui ont développé une base de code avec un template et le refourguent à tout leurs clients en changeant les couleurs hein…

L’argument de merde

J’en vois venir dans le fond, brandissant le drapeau de la qualité du code front-end, symbole visible de travail bien fait.

Si tu me dis que des CMS comme WordPress, Drupal etc.. te sortent du code dégueu, je te renverrais simplement à une question : qui produit le code affiché en front ?
Le développeur qui a crée le template, qui utilise les fonctions du CMS, rien de plus.

Le code front est horrible ? Les développeurs ont mal fait leur travail, tout simplement. Le CMS n’aura rien à voir là dedans, il n’ajoute pas de code pourri juste pour le fun, il y a toujours une raison.

C’est de la faute du marteau !

Ce n’est pas l’outil qui décide si il est bien utilisé ou pas. C’est la personne se servant de l’outil qui peut faire des choses bien ou « mal » avec. Personne n’a jamais insulté son marteau en disant « Pourquoi tu plantes mal des clous dans le mur?! »

Alors ? Pour ou contre ?

Ça dépends©.

Tout dépends au final du projet et du client. C’est là que réside la réponse à cette question : dans l’étude du besoin et dans la réponse à y apporter.

Là ou il y a 15 ans, une page faite en tableaux et en php suffisait largement, à l’heure actuelle il est demandé bien plus (de base) à un site web.

Le code full-custom n’est pas mort loin de là, beaucoup de projets, en évoluant arrivent sur du full-custom, car les fonctions de base du CMS utilisé ne suffisent plus ou deviennent trop compliquées.
Certains sites au départ modestes commencent sur un CMS, puis au fur et mesure évoluent dans de grosses solutions, bien plus complexes et répondants au besoin qui à évolué.

Le web et la façon de faire des sites changent, en bien ou en mal, mais s’adaptent aux contextes réels actuels, comme celui de l’économie.
Ne pas s’adapter, c’est être laissé sur le côté et mourrir.

Sketch, ma sélection de plugins

J’avais déjà réalisé une sélection de plugins pour Sketch il y a pas si longtemps, mais Sketch à beaucoup évolué depuis et l’arrivée de nouveaux venus ainsi que mon expérience sur le logiciel font qu’un nouvel article est nécessaire !

Si il ne devait rester qu’un seul plugin pour Sketch ?

Craft by Invision Labs. Définitivement la meilleure chose que vous puissiez faire à votre workflow est d’utiliser ce meta plugin, regroupant beaucoup de fonctionnalités extrêmement utiles. Plutôt que tout vous détailler, je vous conseille de regarder cette vidéo :

Les fonctionnalités qui m’intéressent le plus personnellement sont la création d’inventaires de styles, qui permettent de vérifier la cohérence de votre design entre autres et les fonctions de duplication.

Find & Replace

findreplace

Définitivement pratique quand on a une erreur typo à changer, find and replace fait exactement ce que son nom indique, il vous permet de chercher et de remplacer du contenu simplement, sans en oublier.

FontFinder

fontfinder

Idéal pour maitriser les fonts utilisées et remplacer certaines en cas de changement, Font Finder va vous permettre de sélectionner certaines fonts très rapidement. Très pratique !

Sketch Iconfont

iconfont

Utiliser des fonticônes est très pratique, mais peut être vraiment embêtant par moment si l’on ne dispose pas d’une page comme ce que nous propose FontAwesome qui regroupe tout les caractères à copier / coller facilement. Sketch Iconfont vous permet d’insérer facilement les glyphes de vos fonticônes et propose encore quelques options pratiques comme les convertir en tracés.

Magic Mirror

magicmirror

Extrêmement pratique pour réaliser des mockups, présentations ou simplement manipuler des images,  Magic Mirror est un véritable couteau suisse qui apporte des fonctionnalités de perspective malheureusement absentes de Sketch.

Rename it

renameit

Si comme moi, vous organisez extrêmement bien vos calques, (hum hum) Rename it vous fera gagner beaucoup de temps en vous permettant de renommer des calques en masse. La principale utilité est la possibilité d’utiliser bon nombre de raccourcis de numération ou de nommage très facilement.

Sketch Mate

Sketch Mate permet d’ajouter beaucoup de raccourcis clavier pour aligner et organiser ses calques et artboards. Si vous utilisez beaucoup les raccourcis, ce plugin est fait pour vous !

Sketch Measure

export-html-measure

Votre développeur / intégrateur préféré est un peu fainéant ? Plus d’excuses pour lui, vous pouvez annoter directement vos maquettes avec Sketch Measure. Encore mieux, ce plugin vous générera un fichier HTML interactif où l’on pourra cliquer et voir tout les éléments et leurs mesures très rapidement. Un must-have.

Sketch Palettes

sketch-palettes

La gestion des palettes dans Sketch est loin d’être optimale, surtout pour les habitués des produits Adobe, qui peuvent exporter / importer et toujours conserver leurs palettes de couleurs préférées. Sketch Palette permet de combler ce vide. Ce plugin vous permettra d’importer / exporter vos palettes facilement.

Social Artboards

artboardssocial

Il n’y a rien de plus embêtant que de chercher les tailles des différents éléments de design des réseaux sociaux actuels. Ce petit plugin va vous permettre de créer des artboards directement aux tailles justes. Social Artboards est pratique si ce genre de missions vous est récurrent.

Content Generator

userpics

Générer automatiquement du contenu peut-être très pratique pour tester ses design d’interface avec des noms plus ou moins longs, des images de stock et ce genre d’éléments qui pourront amener un peu de réalisme dans vos maquettes.  Content Generator s’en chargera très bien.

Hackintosh : Mise à jour de ma configuration

Cela fait maintenant plus d’un an et demi que je me suis lancé dans l’aventure Hackintosh. Il est largement temps de faire un petit point sur l’aventure jusqu’à présent.

Hackintosh et upgrades matérielles

MOAR RAM

J’ai légèrement mis à jour ma configuration, en ajoutant de la RAM, portant le total à 32Go. C’est un peu overkill, mais définitivement pratique par moment.

71mYmzvrAZL._SL1500_

Handoff

Il y a environ 1 an, j’avais acheté un petit dongle bluetooth, ainsi qu’une carte wifi TP Link WDN4800. Les deux fonctionnaient parfaitement bien sans aucun driver, mais ne me permettaient pas de faire fonctionner Handoff. Je suis donc parti à la quête d’une petit carte PCI Express intégrant un chip BCM94360CD. Chose aisément obtenue à partir d’ebay, mais vous pouvez facilement trouver votre bonheur depuis OSXWIFI. J’ai pu alors connecter la carte et faire fonctionner sans aucun soucis Handoff.

pc

The sound of silence

Le silence est une chose qui me tient particulièrement à coeur. J’ai donc changé mon système de refroidissement du processeur par un watercooling All In One de chez Corsair, le H110.

205560

J’ai aussi changé mon alimentation, la CX600 par une Corsair RM650 complètement modulaire. Le principal intérêt de cette alimentation est son silence. Lorsque la consommation est faible, le ventilateur ne tourne pas. Le deuxième avantage est le cable management. Et histoire d’avoir quelque chose de visuellement plaisant, j’ai craqué pour un set de câbles gainés blanc de chez CableMod.

corsair-rm650-1

CM-CSR-FKIT-KW-R-1-800x800

Le résultat est plutôt sympa :

Résoudre le problème de l’audio

L’audio sur Hackintosh peut-être une source de frustration permanente. Les drivers audio doivent être réinstallés / repatchés à chaque mise à jour du système et la stabilité n’est pas vraiment au rendez-vous. J’ai décidé de me passer de l’audio intégré et d’investir dans un petit DAC, le Fiio E10K.

Fiio-Olympus-E10K_P_600

Ce tout petit appareil se connecte en USB et se charge de toute la partie décodage, il fonctionne sans driver et améliore considérablement la qualité de restitution sonore de vos mp3 et films !

Mises à jour logicielles

Comme vous pouvez le voir sur la capture d’écran suivante, j’ai pu réaliser toutes les diverses mises à jour sans encombre.

Capture d'écran 2016-07-26 22.39.25

Le fait que mon Hackintosh repose sur très peu de kexts spécifiques, sa stabilité est excellente et facilement comparable à celle d’un ordinateur pommé classique. En fait, j’ai moins de « plantages » avec mon Hackintosh qu’avec mon Macbook Pro Retina.

Au final

La stabilité et la facilité des mises à jour m’a vraiment convaincu de la possibilité d’utiliser un Hackintosh comme machine de travail principale. Les machines d’Apple ne me satisfaisant toujours pas, je pense garder cette solution encore pour un petit moment !

Je vous invite à lire mes autres articles sur le sujet si l’aventure vous tente ! En commençant par celui ci.