rss mort

Vous connaissez très probablement Feedburner, le service acquis par Google en 2007 pour 100M$ selon les rumeurs et qui permet aux blogs et aux autres sites de centraliser la diffusion de leurs flux RSS. Petite anecdote au passage, ce service a été créé par Dick Costolo, le fondateur de Twitter.

Aujourd'hui, le service Feedburner survit tant bien que mal sur la toile et n'apporte plus aucun chiffre d'affaire à Google depuis que l'option Adsense a été retirée de la plateforme en 2012. Sa feuille de style monocolonne de 800px "has been" commence à dater et plus aucun bug ne semble remonter dans le flux RSS des bugs connus depuis 2013. Tout fait penser que ce service va prochainement disparaître de la toile, comme de nombreux autres.

Feedburner est un problème pour Google, car le jour où ce service disparaît, c'est la majorité des souscriptions de flux sur la toile qui disparaissent. Aujourd'hui, si vous regardez de près les URL des flux RSS que vous suivez, la plupart ont des URL feedburner.

feedburner

Alors pourquoi Google continue-t-il à maintenir ce service opérationnel ? Quelle solution Google peut-il mettre en place pour éviter l'effet "Big Bang" lié la suppression de cette plateforme ?

Il est vrai que Google n'aime pas les flux RSS, car ils réduisent le nombre hit sur les pavés de publicité Adsense, cependant est-ce que le Web peut-il réellement fonctionner sans flux RSS ? Est-ce que le modèle vers lequel pousse Google suite à la suppression pure et dure du service Google Reader est un modèle vers lequel tout le monde veut aller ?

De plus en plus je me dis que nous utilisons le Web d'une manière différente des plus jeunes générations et que les flux RSS sont seulement utilisés par les papys de la toile. Les flux RSS sont donc voués à disparaître avec notre génération ? Est-ce que les réseaux sociaux peuvent réellement remplacer un bon vieux lecteur de flux RSS ?

Pour les webmestres qui veulent anticiper au mieux la mort prochaine de Feedburner, il existe une option cachée dans l'onglet "My Account" qui permet d'avoir la main sur l'URL exposée par Feedburner et de pointer sur son propre domaine.

feedburner

Cette option s'appelle "My Brand" et vous permettra en cas de mort subite de Feedburner, de récupérer tous vos derniers abonnés, mais pas vos abonnés les plus anciens malheureusement.

NB : Si jamais vous êtes abonné à ce blog via l'adresse feedburner de mon flux RSS, vous pouvez vous abonner sur cette nouvelle URL qui migrera toute seule le jour où Feedburner tombera : http://feeds.geeek.org.

Adieu RSS !

rebuild nantes

Vous êtes fan des technologies Microsoft ? Faites un tour au ReBUILD le 2 octobre prochain à Nantes.

Le ReBUILD est un salon informatique et communautaire organisé par l'association "Les communautés MS". Ce salon vous propose de rencontrer des experts Microsoft reconnus, de découvrir l’écosystème des partenaires Microsoft et de vous aider à mieux comprendre les produits et les technologies Microsoft pour les intégrer dans vos projets informatiques.

Au programme du ReBUILD 2014 :

  • 1 Conférence plénière​
  • 40 Sessions techniques​
  • 1 concours de développement
  • 15 MVP (Microsoft Most Valuable Profressional) / MSP (Microsoft Student Partner)
  • 38 Speakers
  • 15 Stands partenaires​​

Le programme détaillé des sessions est consultable sur une feuille Excel en ligne, voici la liste synthétique des sujets qui seront abordés lors de cette journée, c'est extrêmement riche :

  • Windows Azure Active Directoy
  • Transformer Excel en solution de BI Libre-service
  • Les fondamentaux de l’architecture SharePoint et ses bonnes pratiques.
  • Innovations autour de Visio 2013
  • Azure et PHP pour vos développements SharePoint 2013/Office 365 : une architecture ouverte et efficace.
  • Développer une Universal App pour Windows Phone 8.1 quand on vient de Silverlight 8.1
  • Intégrer les groupes Yammer et SharePoint pour une meilleure gouvernance
  • Design et expérience utilisateur sous SharePoint 2013
  • De la #ResponsiveOrg aux technologies sociales, l'expérience de travail de demain.
  • De l'usine de développement Visual Studio Online jusqu'à l'hébergement Azure: du Cloud pour plus d'agilité et d'efficacité
  • Windows Azure - Overview
  • Objets connectés: Prenez le contrôle du T1000 avant qu'il ne soit trop tard
  • Designer et animer ses applications Windows Phone avec Blend
  • BYOD : toutes les astuces pour gérer votre parc
  • Créer votre propre scénario de communication avec Lync et Skype
  • Installer Lync en 1 heure avec PowerShell
  • Les nouveautés de Kinect V2
  • Retour d'expérience du Groupe La POSTE - Les outils collaboratifs Microsoft dans le travail de tout les jours
  • Lync comme téléphonie d'entreprise? c'est possible
  • Office 365 et la gestion des identités
  • UX design, comment booster votre taux de conversion
  • Architectures Yammer - Office 365 - SharePoint hybrides oui !Mais pourquoi faire ?
  • SHAREPOINT 2013 : toutes les astuces pour mettre en place un plan de Gouvernance
  • Atelier Tableaux croisés dynamique dans Excel
  • SQL Server 2014: Trois moteurs de stockage pour vos données
  • Xamarin : développement natif unifié Android, iOS, Windows Phone, Windows, Mac, etc
  • Déployer les prérequis Office 365 grâce à Windows InTune
  • Migrer vers Office 365, la ruée vers l'apps
  • Analysez vos usages Yammer, SharePoint et Exchange avec PowerBI
  • Comment réutiliser des composants .NET (Desktop) dans une application Moderne UI et des composants WinRT dans une application Desktop
  • Etes-vous compatible yOS ? Les 5 usages que vous ne pourrez réaliser que sur Office 365 !
  • Mon Windows Phone dans la vie de tous les jours
  • Lync et le monde UC (Universal Communication)
  • Définir une stratégie de migration vers Office 365
  • Coding for Fun - Excel
  • Développer votre activité avec le programme Partenaire Microsoft, le Microsoft Partner Network
  • Tout sur le Social Project Management
  • Implémentation d’un portail citoyen avec Microsoft Dynamics CRM
  • Plongez dans le monde de Visio Services avec Visio 2013

L’événement est totalement gratuit, pour vous inscrire et obtenir un pass, il suffit de vous rendre sur la page Eventbrite de l’événement.

Pour plus d'informations sur cet événement, je vous conseille d'aller faire un petit tour sur la page dédiée à l’événement du ReBUILD.

Inscrivez-vous vite !

freebox_serveur_v6.jpg

Je travaille actuellement sur un projet personnel de box domotique OpenSource basée sur du NodeJS / MongoDB / OpenZwave, le tout hébergé sur un Raspberry Pi. Dans le cadre du développement de cette box domotique, je me suis demandé comment je pouvais activer automatiquement l'alarme et les automatisations quand je pars de ma maison. Je pense avoir trouvé la solution grâce à une API cachée de ma Freebox V6 ....

Vous avez probablement déjà pu le constater en vous connectant sur l'interface Web d'administration de votre Freebox V6 (http://freebox), votre Freebox sait tout de ce qu'il se passe sur votre réseau local.

Vous pouvez depuis cette interface y observer vos PC, mais aussi très probablement votre Smartphone si la configuration Wifi est active. Basé sur ce constat, si chaque habitant possède un smartphone connecté au Wifi, il est donc possible de savoir au travers de la Freebox si quelqu'un est à votre domicile ou non.

En approfondissant un peu plus la documentation des API exposées par la Freebox, on remarquera qu'il est possible pour une application tierce de lister l'ensemble des terminaux connectés sur son réseau local via une API REST qui restitue les mêmes informations que l'interface Web d'administration de la Freebox. Miracle !

GET /api/v3/lan/browser/{interface}/

{
    "success": true,
    "result": [
        {
            "l2ident": {
                "id": "d0:23:db:36:15:aa",
                "type": "mac_address"
            },
            "active": true,
            "id": "ether-d0:23:db:36:15:aa",
            "last_time_reachable": 1360669498,
            "persistent": true,
            "names": [
                {
                    "name": "iPhone-r0ro",
                    "source": "dhcp"
                }
            ],
            "vendor_name": "Apple, Inc.",
            "l3connectivities": [
                {
                    "addr": "192.168.69.20",
                    "active": true,
                    "af": "ipv4",
                    "reachable": true,
                    "last_activity": 1360669498,
                    "last_time_reachable": 1360669498
                }
            ],
            "reachable": true,
            "last_activity": 1360669498,
            "primary_name_manual": true,
            "primary_name": "iPhone r0ro"
        }
    ]
}

Vous l'aurez compris, il ne reste plus qu'à appeler cette API dès lors qu'aucun mouvement est détecté dans la maison. Si jamais plus aucun Smartphone n'est détecté et qu'aucune présence n'est détectée par les détecteurs infrarouges, on peut considérer à 98% que la maison est vide et donc déclencher l'alarme et l'ensemble des automatisations planifiées.

Grâce à cette API, ma maison va donc devenir intelligente. Je n'aurai plus besoin d'informer ma box domotique que je ne suis plus là. Merci Free !

cookies CNIL

Les cookies et autres traceurs espionnent vos longues heures passées sur Web. Certains réseaux sociaux, agences publicitaires, éditeurs suivent une grande partie de votre parcours numérique sur la toile sans que vous vous en rendiez compte. Sauf parfois, lorsque certains pavés publicitaires vous collent d'un peu trop près sur tous les sites sur lesquels vous allez.

C'est avec ce constat qu'une directive Européenne a été votée en 2011 afin de limiter les abus sur l'utilisation des cookies et d'offrir aux utilisateurs du Web plus de liberté et d'anonymat.

Cette directive Européenne appliquée en France par la CNIL rend actuellement Google Analytics illégal en France. L'ensemble des sites utilisant Google Analytics doivent suivre les recommandations de la CNIL pour demander l'accord préalable de l'utilisateur avant qu'un cookie ne soit créé sur son navigateur.

Les trois principaux types de cookies actuellement considérés comme illégaux par la CNIL sans un consentement préalable de l'utilisateur sont :

  • les cookies liés aux opérations relatives à la publicité ciblée ;
  • certains cookies de mesure d'audience (cas de Google Analytics);
  • les cookies des réseaux sociaux générés notamment par leurs boutons de partage lorsqu'ils collectent des données personnelles sans consentement des personnes concernées.

Si vous souhaitez voir les sites qui ne jouent pas le jeu, la CNIL met à disposition une application OpenSource pour analyser les échanges de cookie et identifier à qui profitent les cookies qui sont créés sur votre ordinateur. Cet outil s'appelle CookieViz et est disponible gratuitement sur le profil GitHub de la CNIL. Il consiste en un proxy capable d'analyser les échanges HTTP afin d'identifier qui crée les cookies et qui les utilise.

Il existe aussi d'autres solutions, non OpenSource, mais plus simples à utiliser comme le plugin Collusion disponible sur Firefox et Chrome.

Les premiers contrôles d'usage des cookies sur la toile seront réalisés à partir d'octobre 2014 par la CNIL. Google devrait donc peut-être proposer une solution d'ici les 15 prochains jours afin de simplifier la vie des millions de Webmestres utilisant Google Analytics.

Si ce n'est pas le cas, vous devrez choisir entre basculer sur Piwik (n'oubliez pas de suivre les recommandations de la CNIL sur la configuration de Piwik) ou d'ajouter un bandeau de consentement pour chaque nouveau visiteur


Crédits photo : University of Scranton Weinberg Memorial Library

it-ebooks-sample.jpg it-ebooks-sceenshot.png

Quel développeur n'a jamais rêvé d'accéder à une bibliothèque d'eBooks dédiés à l'IT ?

it-ebooks-search.info propose un moteur de recherche d'eBooks autour de l'IT. Pour chaque livre, le site propose un lien magique permettant de consulter l'eBook complet au format PDF.

Vous pouvez ainsi trouver des livres sur l'HTML5, le CSS3 et bien d'autres langages et technologies.

Je ne pense pas que ce site soit totalement légal et pourtant, il continu de fonctionner et ne semble pas être inquiété par les sociétés d'édition qui commercialisent les livres référencés sur ce site. Les PDF mis en téléchargement ne sont pas hébergés sur le site lui-même, mais sur filepi.com, une plateforme d'échange de fichiers localisée au Luxembourg.

Vous pouvez feuilleter les PDF, si les livres vous plaisent, le site vous propose tout de même la possibilité de les acheter en ligne.

Pour les développeurs, des API Rest ouvertes sont mises à disposition via le site it-ebooks-api.info. Ces API permettent de récupérer des informations sur les livres référencés dans la base de données.

Bonne lecture !

apple-watch.gif

Vous avez manqué la vidéo de présentation de l'Apple Watch lors du Keynote d'Apple ? Voici la vidéo de présentation officielle de l'Apple Watch.

L'Apple Watch sera commercialisée premier trimestre 2015 à partir de 349$ aux US et probablement 349€ si l’on applique le principe d’Apple : 1$=1€.

Elle sera déclinée en 3 modèles :

  • l'Apple Watch
  • l'Apple Watch Sport
  • l'Apple Watch Edition (en or 18 carrats)

Et sera compatible avec :

  • l'iPhone 6
  • l'iPhone 6 Plus
  • l'iPhone 5
  • l'iPhone 5c
  • l'iPhone 5s

Un SDK de développement devrait probablement voir le jour rapidement sur le site Apple Developper. On peut s'attendre à du Swift comme langage de développement et à une intégration du SDK dans XCode. Un iOS 8.1 devrait donc voir le jour en début d'année prochaine pour permettre aux utilisateurs d'Apple Watch de contrôler leur Apple Watch depuis leur iPhone.

En attendant, pour les utilisateurs d'iPhone, la mise à jour vers iOS 8 devrait être accessible à tous à partir du 15 septembre.

devfest-nantes-2014.png

La joyeuse et dynamique équipe du GDG Nantais renouvelle l'expérience du DevFest cette année.

Il s’agit d’une journée complète de conférences sur Android, Dart, AppEngine, Angular JS, Chrome, HTML5, Google Drive, Go, GWT...
 Une occasion unique de partager et d’échanger autour des technologies du Web et du Cloud.

Cette année, l’événement regroupera plus de 500 participants et se déroulera le 7 novembre à la Cité des congrés de Nantes. Ce sera le plus gros DevFest français.

Vous souhaitez réaliser une conférence au Devfest ? Dépêchez-vous, vous avez jusqu'au 14 septembre pour proposer un sujet intéressant.

Sinon, si vous souhaitez tout simplement vous rendre à l’événement, inscrivez-vous dès maintenant tant qu'il y a des places de disponibles. Les tarifs proposés pour l’événement, nourriture incluse sont très accessibles :

  • Pass standard : 30€ (éligible DIF)
  • Pass académique : 10€

Réservez votre journée et venez !

<img src="http://static.geeek.org/public/developpement/.gdg_stats_m.png" alt="gdg_stats.png" style="display:block; margin:0 auto;" title="gdg_stats.png, sept. 2014" />

google-logo-art.jpg

Cela faisait plusieurs mois que je n'avais pas pris le temps de faire un peu d'optimisation SEO sur mon blog. J'ai profité de la fin de mes vacances d'été pour réaliser quelques travaux de nettoyage et d'optimisation.

Depuis quelques mois, je pense avoir été la cible d'une pénalité Google. Mon trafic est en effet subitement descendu de 3200 visiteurs par jour à 800 visiteurs seulement. Ceci, sans aucune explication aucune de la part de Google.

  • Est-ce qu'un de mes très rares articles sponsorisés a été dénoncé sur le portail de Google ?
  • Ai-je été victime de "bad links" ?
  • Est-ce que le contenu ou la structure de mon site ne plait pas à Google ?
  • Ou alors ai-je trop de contenus dupliqués ?

Bref, bienvenue dans l'univers opaque et impitoyable du SEO ...

Sur la base de l'ensemble de ces questions sans réponse, voici les travaux réalisés en vue de retrouver le trafic Web perdu :

  • J'ai fait une passe sur mes 4000 articles, 20% d'entre eux avaient des images manquantes. Les images intégrées étaient au format "medium", ce format n'est plus compatible avec la résolution actuelle du blog.
  • J'ai adapté mon algorithme d'analyse des erreurs 404, il est désormais capable de récupérer tout un tas d'erreurs, presque tous.
  • J'ai analysé et corrigé 98% des erreurs d'indexation indiquées sur le Webmaster tools de Google.
  • J'ai identifié plusieurs domaines pointant sur mon site avec des mots clefs erronés et je les ai dénoncés à Google via l'outil de désaveux de liens mis à disposition des Webmestres.
  • J'ai supprimé l'affichage de l'URL des sites des auteurs de commentaires. Trop de commentaires en abusaient.
  • J'ai supprimé les 65 000 liens provenant d'un de mes autres sites : Flickrooster.com. J'avais malencontreusement mis un lien vers mon blog dans le footer du thème.
  • J'ai modifié la date de dernière mise à jour de l'ensemble des articles pour éviter les 302 "Not modified" au prochain passage du Spider Google.
  • J'ai revu les fréquences de rafraîchissement des données du Sitemap exposé. Je suis passé en "Weekly" sur les articles au lieu de "Daily".
  • J'ai supprimé le Sitemap spécifique pour Google News qui n'était pas exploité et qui s'affichait en erreur sur le portail Google Webmaster tools.
  • J'ai corrigé un bug de Dotclear (ma plateforme de blog) qui produisait des "duplicate content" très facilement sur les DefaultUrlHandler.
  • J'ai demandé à plusieurs sites d'arrêter de republier le contenu provenant de mon blog afin d'éviter les "duplicate content".

Le résultat de toutes ces optimisations s'annonce très encourageant :

statistiques-google-analytics.png

Je pense même avoir retrouvé le trafic perdu en 2013 ...

Cependant je n'ai aucune idée du critère qui m'a permis de récupérer les visites perdues. S'agissait-il d'une pénalité liée aux images manquantes ? Je vais attendre la fin de semaine prochaine avant de confirmer l'effet des optimisations réalisées, je reste cependant confiant.

Blogueurs, pensez à maintenir vos vieux articles ! Cela vous rapportera plus de trafic que d'écrire de nouveaux articles.


Crédits photo : Mark Knol

hacker-banner.jpg

L'utilisation du terme anglophone "Hacker" est de plus en plus mal employé par nos journalistes francophones. Cela me révolte !

On retrouve ce terme à toutes les sauces et souvent quand il s'agit de piratage informatique. Je pense qu'une très grande majorité de journalistes non spécialisés pense qu'un Hacker est un méchant pirate informatique alors que loin de là ...

Un hacker ou hackeur est une personne qui montre une passion pour la compréhension du fonctionnement intime des systèmes, ordinateurs et réseaux informatiques en particulier. (Wikipédia)

La bonne terminologie pour définir pirate informatique est Cracker. C'est un terme proposé sur Usenet (l'ancien Internet) vers 1985 pour riposter à l'usage jugé impropre du terme Hacker. Ce terme a été défini par Gary Scott Malkin dans la RFC 1983 en 1996 en riposte du mauvais usage du terme Hacker qui était réalisé à l'époque :

A cracker is an individual who attempts to access computer systems without authorization.  These individuals are often malicious, as opposed to hackers, and have many means at their disposal for breaking into a system.  See also: hacker, Computer Emergency Response Team, Trojan Horse, virus, worm.

Le problème est que le terme "Cracker" est inconnu de la majorité des Français et il ne fait pas partie de notre dictionnaire Français.

L'autre problème est que ce terme "Hacker" a été intégré dans notre dictionnaire français avec une définition erronée. Selon le dictionnaire Larousse :

Personne qui, par jeu, goût du défi ou souci de notoriété, cherche à contourner les protections d'un logiciel, à s'introduire frauduleusement dans un système ou un réseau informatique.

Heureusement, Wikipédia définit le terme "hacker" de manière correcte :

Aujourd'hui encore, un hacker désigne un virtuose pouvant intervenir dans différents domaines comme la programmation, l'architecture matérielle d'un ordinateur, l'administration système, l'administration réseau, la sécurité informatique ou tout autre domaine de l'informatique ; les médias grand public utilisent à tort le terme « hacker » dans le sens de cracker, black hat (« chapeau noir »), c'est-à-dire un « hacker » opérant de façon illégale ou non éthique. Les hackers sont parfois confondus avec les script kiddies, cyber-délinquants à la recherche de cibles faciles ne demandant pas de connaissance particulière en informatique.

Les journalistes continueront donc à utiliser le terme hacker à toutes les sauces encore longtemps. Hackers, révoltez-vous ! Journalistes, n'utilisez plus le terme hacker pour définir un pirate informatique !

Mise à jour (13/09/2014) : Mise en ligne d'une pétition


Crédits photo : The Preiser Project