Communication numérique

Bric à brac des notions marketing 

marketing evolution

Une vulgarisation sur des concepts qui ne s'arrêtent pas de bouger. 

 SOMMAIRE

LES OUTILS COLLABORATIFS
CONTRAINTES JURIDIQUES ET LÉGALES
LES OUTILS D’INFORMATION
LEXIQUE INTERNET : LE DICTIONNAIRE DU E-MARKETING
MANAGEMENT ET SYSTÈMES D’INFORMATION – LES OUTILS

 

LES OUTILS COLLABORATIFS

 
 

Dans la gamme des outils collaboratifs en ligne, vous avez de plus en plus de solutions complètes pour répondre à tout type de besoins.

A côté des mastodontes, il y a aussi des outils simples et gratuits pour des besoins occasionnels que vous pouvez utiliser sans même avoir besoin de vous inscrire ni d’installer quoi que ce soit sur votre ordinateur. Voici une petite sélection de cinq de ces outils. 5 outils collaboratifs pour des besoins de tous les jours.

Appear.in

Appearin

Un formidable outil collaboratif gratuit déjà présenté ici qui permet de mettre en place une vidéoconférence dans votre navigateur en deux clics trois mouvements. Aucune inscription nécessaire, il suffit de se rendre sur le site, de créer une salle de tchat et de partager l’url unique fournie par Appear.in
Lien: Appear.in

Mindmup

mindmup

Mindmup permet de créer des cartes mentales ou heuristiques simplement. Le service propose de nombreuses options pour créer des diagrammes personnalisés pour ensuite pouvoir les partager facilement. Collaboration en temps réel et sauvegarde en local ou sur Dropbox possibles.
Lien: Mindmup

Flask
Flask

Voici encore un outil simple et gratuit qui se concentre sur une seule et unique fonction mais qui le fait bien et gratuitement. Flask permet de partager avec une équipe une liste de tâches. Il suffit de créer une liste et envoyer l’url à toutes les personnes avec qui vous souhaitez la partager. Chacun aura accès à votre liste et pourra la compléter ou marquer une tâche complétée. On peut donner des couleurs différentes aux tâches et signaler comme prioritaires certaines d’entre elles. Flask fonctionne sur ordinateur ou smartphone.
Lien: Flask

Nooot
Nooot

Encore un outil collaboratif ultra simple. On pourrait même dire minimaliste pour ce qui concerne Nooot dont la seule difficulté réside dans le nom qui compte trois “o”. Je l’ai présenté ici-même il y a quelques jours. Il s’agit d’un carnet de notes collaboratif à partager, idéal pour un brainstorming à la volée ou un texte à plusieurs mains. Gratuit et sans inscription.
Lien:Noot

CosKetch

Cosketch

Je parlais de brainstorming il y a un instant, Coseketch est un autre outil gratuit et sans inscription qui s’adaptera facilement aux besoins d’un brainstorming collaboratif. Avec Cosketch vous pouvez dessiner à plusieurs sur une feuille blanche en ligne. Un service de tchat complète le dispositif.

 

 


 

HISTORIQUE ET ENJEUX D’INTERNET ET DES NOUVEAUX MÉDIAS

 
 

I. Médias mobiles et la géolocalisation

II. Nouvelles applications : Réalité augmentée, Fablab (fabrication Laboratory)

III. Risques du développement : Darknet, piratage

I. Médias mobiles et la géolocalisation :

Sachant que chaque méthode possède des avantages et inconvénients, les smartphones combinent aisément les technologies pour bénéficier de la meilleure précision à tout moment et pour un minimum de consommation de la batterie du téléphone. Ainsi il est possible d’avoir un positionnement GSM pour obtenir rapidement une position, pendant que la puce GPS est activée et qu’elle détermine une localisation plus précise.

Il est par ailleurs intéressant de savoir que les smartphones enregistrent la dernière position connue pour économiser de la batterie et gagner en réactivité.

La géolocalisation sur smartphone est un concept peu connu qui mérite d’être clarifié pour mieux comprendre les forces et faiblesses de ces technologies. La démystification permet de comprendre les enjeux liés à la précision de la géolocalisation et ceux liés à la limitation de la batterie de ces petits appareils. Cet article résume les technologies existantes en indiquant les avantages et inconvénients de chaque solution.

Technologies existantes
Géolocalisation par GPS (satellite)
Réservé exclusivement aux terminaux équipés d’une puce GPS, ce système de localisation se base sur les signaux émis par un réseau de satellites afin de déterminer la position géographique. La précision de cette technique est estimée de 15 à 100 mètres pour le réseau GPS.

A noter :

Le réseau européen Galileo est en cours de déploiement et promet une meilleure précision que le réseau GPS qui, quant à lui, est un réseau américain initialement développé pour un usage militaire.
Petit inconvénient, les systèmes qui exploitent la puce GPS conduisent à une plus grosse consommation de la batterie. En conséquent, les téléphones mobiles équipés peuvent activer ou désactiver l’utilisation de la puce pour préserver la consommation d’énergie du téléphone. Cette fonctionnalité est indispensable car un téléphone avec une puce GPS allumée en permanence tomberait à court de batterie dès le milieu de journée.

Astuce :

Il existe pour moins de 5€ des chargeurs de smartphone qui se branchent directement sur l’allume-cigare des voitures. Ces petits adaptateurs bons marchés évitent bien des mésaventures.

Avantages :

Bonne précision

Inconvénients :

Le système ne fonctionne pas toujours en intérieur, il met du temps à déterminer la position lors du démarrage et il consomme beaucoup d’énergie.
Géolocalisation par GSM
La géolocalisation par GSM détermine une localisation géographique en se basant sur les antennes GSM, c’est-à-dire les antennes relais qui servent habituellement à transférer les données aux téléphones mobiles. La précision de ce type de positionnement peut aller de 200 mètres à plusieurs kilomètres, selon la densité des antennes. En milieu urbain, la densité est plus élevée et permet donc un meilleur positionnement qu’en milieu rural.

Avantages :

Consomme peu et est rapide à démarrer

Inconvénients :

La couverture géographique dépend du réseau des antennes relais. Lorsque le nombre d’antennes est faible la géolocalisation est peu précise, et lorsqu’il n’y en a pas la géolocalisation est impossible
Géolocalisation par Wifi
La géolocalisation Wifi exploite la position connue de certains réseaux wifi pour déterminer la position d’un appareil. Un smartphone équipé d’une puce Wifi pourra alors se baser sur les connexions wifi qu’il détecte à proximité pour estimer son emplacement géographique. La précision dépend de la puissance des points d’accès Wifi, c’est-à-dire quelques dizaines de mètres.

A noter :

Google utilise des voitures qui parcourent les villes pour prendre des photos utilisables dans Google Street View et pour obtenir une liste de toutes les connexions wifi qu’ils détectent. Ces données sont associées à la géolocalisation de la voiture et servent justement à renforcer la puissance de la géolocalisation Wifi.

Avantages :

Consomme peu et a une bonne précision

Inconvénient :

Presque inutilisable en zone rurale

Combinaison des solutions :

Sachant que chaque méthode possède des avantages et inconvénients, les smartphones combinent aisément les technologies pour bénéficier de la meilleure précision à tout moment et pour un minimum de consommation de la batterie du téléphone. Ainsi il est possible d’avoir un positionnement GSM pour obtenir rapidement une position, pendant que la puce GPS est activée et qu’elle détermine une localisation plus précise.

Il est par ailleurs intéressant de savoir que les smartphones enregistrent la dernière position connue pour économiser de la batterie et gagner en réactivité.

II. Nouvelles applications :

Réalité augmentée, Fablab (fabrication Laboratory) :

Drôle d’expression que la réalité augmentée, comme si la réalité ne se suffisait pas à elle-même et devrait donc être augmentée (et pourquoi pas diminuée ?), en tout cas transformée par l’intégration de nouvelles techniques de perception dans notre champs visuel, auditif et même notre perception tactile. Alors, nouveaux gadgets ou nouvelle façon d’appréhender la réalité, ce champs de développement technologique est en tout cas en pleine expansion et ses promesses de succès son nombreuses dans des domaines aussi variés que le commerce, le tourisme, l’éducation, la santé, l’industrie ou encore le jeux vidéos et le cinéma.

Comment définir cette augmentation de la réalité ?

Selon le philosophe Godefridi la réalité augmentée est un « élargissement de la réalité à un média-monde ». On rejoint dans cette définition le projet du célèbre réseau virtuel Second Life qui n’a pas connu un succès très pérenne sans doute à cause de sa dimension uniquement virtuelle. Mais justement, la démarche de la réalité augmentée est différente. Elle propose un système (au sens informatique) qui rend possible la superposition d’un modèle virtuel (3D ou 2D) à la perception que nous avons naturellement de la réalité et ceci en temps réel. Ce système peut aussi bien s’appliquer à la perception visuelle (superposition d’images virtuelles aux images réelles) qu’aux perceptions tactiles ou auditives. Techniquement et pour essayer de faire simple, la réalité augmentée visuelle pour ne parler que de celle-ci, repose sur l’insertion d’objets virtuels dans une vidéo qui filme la réalité en directe. Par exemple, j’intègre de faux arbres dans le film d’une descente de ski réelle que je suis en train d’effectuer. Cela est notamment permis par le développement de lunettes virtuelles comme les Google glass dont on parle souvent qui associent les deux niveaux de réalités. La principale difficulté de cette superposition du réel et du virtuel est justement que les deux réalités soient bien cohérentes et se superposent sans décalages.

Mais quel est l’intérêt de telles recherches technologiques et quels sont les exemples d’applications concrètes qui sortent du côté gadget ?

On peut se poser la question du pourquoi de tels investissements technologiques par rapport à la plue-value possible que cela va nous apporter. Pour mieux comprendre il faut replacer le vrai besoin qui sous tend cette réalité augmentée. L’économie se virtualise de plus en plus avec le risque, si cette réalité virtuelle ne s’améliore pas, de lasser les internautes qui préfèrerons retourner dans la vie réelle, celle des vrais magasins et des vrais expériences sensibles. Ce constat est très concret. Les acteurs du commerce électronique, même si ce dernier se développe très bien, ont du mal à transformer les visites virtuelles en achats. Bien souvent, il faut que les internautes aillent vérifier en magasin si le produit leur convient.

Il est en effet très difficile de se représenter ce que va donner un vêtement sur quelqu’un ou comment un meuble va prendre sa place dans un pièce de sa maison. Or le commerce électronique repose justement sur une virtualisation de la représentation. On peut bien sûr voir des photos, parfois même des vues en 3D des produits sur Internet, on peut même admirer des superbes des mannequins (ce qui préfigure d’ailleurs assez mal ce que cela va donner sur soit…), mais il est impossible de faire un essayage virtuel. Et bien avec la réalité augmentée, cela devient possible.

Les acteurs du e-commerce sont de plus en plus nombreux à proposer ce service à leurs clients en utilisant par exemple l’application Playviz qui permet d’insérer virtuellement un objet de décoration dans son salon ou sa cuisine à partir d’une simple photo. Le lunetier Atol permet désormais l’essayage de ses nouvelles lunettes à distance par le biais d’une webcam grâce à de nouvelles applications comme Fittingbox. Il existe aussi des applications de réalité augmentée pour faire du marketing avec des petits tags collée à des boîtes de céréales à partir desquels on va pouvoir accéder à des informations, des jeux, des avatars ludiques pour les enfants…

Les applications concernent-elle d’autres domaine que le commerce ?

Le besoin de la réalité augmentée est de faire le lien entre le virtuel et le réel. Les habitudes changent à la vitesse d’adoption des technologies par le grand public. Ce qui passait pour un gadget il y a quelques mois peut peut devenir indispensable demain. Par exemple dans le secteur médical où des lunettes à réalité augmentée permettent désormais aux chirurgiens d’avoir dans leur champs de vision différentes informations nécessaires à leur intervention. Dans les villes, où de nombreuses applications se développent chaque jour pour enrichir le mobilier urbain, les transports ou encore le patrimoine immobilier avec de multiples informations pratiques à dimension historique, culturelle ou économique. C’est le cas de Culture Clic qui permet d’accéder à de l’information culturelle et artistique sur 1350 sites ou monuments historiques, de Meilleur Agents qui permet d’obtenir le prix du m2 d’un bien immobilier en orientant tout simplement son smartphone vers un immeuble quand on passe devant, de Realme qui utilise la même technologie pour trouver des locaux commerciaux disponibles en se baladant dans la rue ou encore de Métro Paris, la 5ème application la plus téléchargée de l’Appstore, qui donne un ensemble d’informations sur le transport en commun parisien, le trafic, l’emplacement des stations. L’édition et l’éducation se penchent aussi sur ces technologies d’enrichissement d’information avec par exemple l’application Dokéo de Nathan qui permet d’enrichir ses manuels de réalités augmentée.

Cet enrichissement supplémentaire de l’information ne risque t-il pas de saturer les utilisateurs ?

C’est en effet un risque qui aboutirait paradoxalement non pas à un enrichissement mais à son appauvrissement. Comme dit l’adage, trop d’info tue l’info. Le véritable défi qui nous attend n’est pas forcément l’enrichissement quantitatif d’informations, vu la saturation informationnelle dans laquelle nous sommes plongés mais dans sa qualité et son ciblage. L’extrême foisonnement d’informations et l’utilisation des interfaces numériques produisent déjà des effets de réduction des formats, des messages, du zapping et une lecture transversale et superficielle des informations.

L’infobésité ambiante favorise les messages courts, les titres accrocheurs, les chiffres clés, les nouveaux formats visuels comme les infographies interactives, les vidéos dessinées ou les diaporama. Ce phénomène général de réduction de l’information pose de nombreuses questions sur la société de la connaissance promise par l’ère de l’information.

Or l’information, surtout à haute dose et réduite à des slogans et des chiffres n’est pas la connaissance. Je pense donc qu’une réalité augmentée devrait surtout s’enrichir de moyens et stratégies d’accéder et de construire de la connaissance et non de déverser une masse toujours plus grande d’informations souvent indigestes.

III. Risques du développement : Darknet, piratage :

Qu’est-ce qu’un darknet ?

Évolution de la définition

Employer dans une conversation le terme darknet suscite presque immédiatement une polémique, tant le terme est controversé. Pour certains, le darknet serait la face cachée (dark) de l’Internet (net), pour d’autres, ce serait une zone de non-droit du cyberespace (net) dans laquelle ne se commettraient que des activités illégales (dark). Pour d’autres encore, ce serait un mélange des deux.

Avant de poursuivre, il est indispensable de préciser la définition de certains termes qui sont confondus avec le terme darknet : le deep web, le web invisible, le web profond et le web caché. Ces quatre termes sont synonymes les uns des autres et recouvrent la partie de l’Internet accessible en ligne mais non indexée par le moteurs de recherche classiques généralistes (Google, Yahoo !, etc.). Il convient cependant d’être prudent, et de bien préciser que le web invisible est inaccessible aux moteurs de recherche classiques, car de plus en plus de moteurs de recherche spécifiques se développent. Ainsi le moteur de recherche shodan1, créé en 2009, référence l’ensemble des objets connectés à l’Internet, quelle que soit leur destination.

Les utilisateurs du darknet

Au fil du temps, les darknets sont passés du partage de fichiers confidentiels au partage de fichiers piratés (musique principalement, à la fin des années 90), puis à un partage de produits illégaux et enfin à la défense de la vie privée. Les réduire au seul moyen de protection d’activités illégales est réducteur. D’ailleurs, Biddle, England, Peinado et Willman reconnaissaient que Gnutella ne permettait pas que des choses illégales [Bid].

Étant donné les éléments contradictoires circulant sur les darknets, il est logique de se demander si ces réseaux sont vraiment utilisés ou s’ils ne sont qu’une légende urbaine cybernétique. Une étude [Kad] menée en 2014 et 2015 qui avait pour but de calculer la part du trafic réseau attribuée aux services cachés et de compter le nombre d’adresses uniques (en .onion) montre que « 30 000 services cachés du réseau Tor représentent environ 3,4 % du trafic total du réseau, selon une étude du projet Tor. »

Cependant, comme nous l’avons souligné précédemment, on ne trouve pas que des sites ou objets réputés illégaux dans les darknets.

Piratages

 

Dupont-2010-Les-pirates-informatiques_0

 

 

Dans ce document M DUPONT explique l’évolutions du piratage dans notre société.

 


 

CONTRAINTES JURIDIQUES ET LÉGALES

 
 

SOMMAIRE:

I. La propriété intellectuelle

I.1 Définition

I.2 Loi HADOPI

II. Protection de la vie privée

II.1 L’identité numérique

II.2 La CNIL

 

 

 

I. La propriété intellectuelle

I.1 Définition

(source INSEE)

La propriété intellectuelle regroupe la propriété industrielle et la propriété littéraire et artistique:

  • La propriété industrielle a pour objet la protection et la valorisation des inventions, des innovations et des créations. Les droits de propriété industrielle s’acquièrent en principe par un dépôt (dépôt d’un brevet, d’un dessin ou modèle ou d’une marque). Les droits de propriété industrielle donnent un monopole d’exploitation (sanctionné par l’action en contrefaçon) et constituent à la fois une « arme » défensive et offensive pour les entreprises détentrices de ces droits. Il existe plusieurs voies possibles de protection pour ces droits de propriété industrielle.
  • La propriété littéraire et artistique s’attache avec le droit d’auteur à protéger les œuvres littéraires, créations musicales, graphiques, plastiques, créations de mode, etc. et les logiciels, ainsi qu’un certain nombre de « droits voisins » (concernant les artistes-interprètes, les entreprises de communication audiovisuelle, par exemple). Le droit d’auteur ne protège pas les idées ou les concepts. Le droit d’auteur s’acquiert sans formalités, du fait même de la création de l’œuvre (Article L111-1 du Code de la propriété intellectuelle).

 I.2 Loi HADOPI

(source www.hadopi.fr)

La Haute Autorité pour la Diffusion des Oeuvres et la Protection des droit sur Internet est une autorité publique indépendante. A ce titre, elle est dotée de la personnalité morale.

  • Une mission d’encouragement au développement de l’offre légale et d’observation de l’utilisation licite et illicite des œuvres et des objets auxquels est attaché un droit d’auteur.
  • Une mission de protection de ces œuvres

La Haute Autorité est composée d’un collège et d’une commission de protection des droits :
Le président du Collège est le président de la Haute Autorité. Sauf disposition législative contraire, les missions confiées à la Haute Autorité sont exercées par le Collège. La Commission de Protection des droits est chargée de mettre en œuvre la procédure dite de « réponse graduée », prévue par l’article L.331-25 du Code de la propriété Intellectuelle. Dans l’exercice de leur attributions, les membres du Collège et de la Commission de Protection des Droits ne reçoivent d’instruction d’aucune autorité.

La création de l’Hadopi s’est inscrite dans le sillage d’une transposition du cadre européen de régulation des usages numériques qui avait donné lieu à la création de l’autorité de régulation des mesures techniques (ARMT) dont l’institution a repris les missions. Après une nécessaire adaptation du projet initial à des exigences de constitutionnalité, une forme atypique d’organisation publique indépendante a été mise en place.

Si la procédure pédagogique pré-pénale dite de « réponse graduée » en constitue l’axe le plus notoire, le législateur a confié à cette nouvelle autorité la mise en œuvre d’un faisceau de missions visant de manière plus large à encourager dans la sphère numérique de bonnes pratiques propres à mieux concilier les intérêts légitimes tant des créateurs que des destinataires des œuvres.

Sans éteindre les interrogations suscitées par l’expérience engagée, le déploiement des missions légales de l’institution a permis d’envisager de nouvelles voies d’action, notamment en matière de protection des droits, et continue à inspirer des hypothèses diverses sur l’évolution organique et institutionnelle de la Haute Autorité ou sur l’adaptation de ses missions et procédures. Renouvelée dans sa gouvernance à l’issue du premier cycle de son existence, celle-ci n’est pas dénuée d’atouts pour la période qui s’ouvre.

Quelques chiffres:

En 2017, Hadopi a fêté ses 7 ans.

En 7 ans: 7,58 millions de mails envoyés.

6 mois suite au mail reçu pour changer d’habitudes de téléchargements illégaux

5339 cas de “négligences”

1308 dossiers envoyés au parquet

> 72 condamnations

Hadopi ne peut rien contre le streaming et aura coûté à l’horizon 2022, environ 100millions d’euros…

Mais Hadopi est confiante car elle déclare que 50% des “pirates” arrêtent le téléchargement illégal.

 

II. Protection de la vie privée

II.1 L’identité numérique

(source Wikipédia)

L’identité numérique est le lien technologique entre une personne réelle et sa visibilité sur internet, elle peut se diviser en 3 catégories:

  • L’identité déclarative, qui se réfère aux données saisies par l’utilisateur comme son nom, sa date de naissance, ou autres informations personnelles directement renseignées par l’individu ;
  • L’identité agissante, qui est indirectement renseignée par les activités de l’utilisateur sur la toile ;
  • L’identité calculée, qui résulte d’une analyse de l’identité agissante par le système, comme le nombre de like, le nombre de communautés virtuelles dans lesquelles l’individu évolue ou bien son nombre d’amis sur les réseaux sociaux.

Les différentes facettes de l’identité numérique

Schéma:

 

les facettes de l’identité numérique

 

La schématisation du concept de l’identité numérique a été abordée par plusieurs auteurs comme Fred Cavazza, Anthony Babkine ou encore Leafar. L’objectif était de définir tous les composants de l’identité numérique à travers une représentation simplifiée. L’identité numérique est ainsi représentée par une cartographie à plusieurs facettes:

  • Les coordonnées (Comment et où me joindre) regroupant les données numériques qui permettent de rentrer en contact avec un individu, de l’identifier et de le localiser
  • Les certificats (Qui atteste de l’identité) permettant d’authentifier un utilisateur de manière certaine, unique et sécurisée pour transmettre ou recevoir des informations numériques à travers par exemple des outils informatiques comme CardSpace, OpenID, ClaimID, Naimz, Thwate, ou Certinomis.
  • L’expression (Ce que je dis) prenant en compte tous les contenus mis en ligne à partir des logiciels, des plateformes, et des services reconnus comme outils de parole (ex : WordPress, Blogging, Overblog).
  • Les avis (Ce que j’apprécie) peuvent concerner un produit (ex : Beaute-test, Ciao, Looneo, Amazon, etc.), un service (ex : Vacanceo, Trip Advisor), un site Internet (ex : Digg) ou même un contenu rédactionnel.
  • Les hobbies (Ce qui me passionne) se focalisant sur des thèmes divers comme la cuisine, l’automobile, les jeux en ligne, les animaux, etc. Il s’agit souvent des communautés de niche échangeant sur un sujet qui est leur passion.
  • La connaissance (Ce que je sais) qui est transmise à travers les encyclopédies communautaires (ex : Wikipédia) les foires aux questions collaboratives (ex : Google Answer), les tutoriels, les blogs spécialisés, etc.
  • Les avatars (Ce qui me représente) dans un univers virtuel comme dans les jeux en ligne (ex : Second Life, World of Warcraft) ou encore dans les comptes numériques (ex : Gravatar).
  • L’audience (Qui je connais) peut s’étendre à des groupes d’individus (ex : Facebook, Myspace) et des sites de rencontre (ex : Meetic).
  • La consommation (Ce que j’achète) reflétant les achats réalisés, le moyen de paiement utilisé, les pages consultées, les produits les plus visités, la fréquence d’achat, la création de profils marchands, l’accumulation des points de fidélité, etc.
  • La réputation (Ce qui est dit sur moi) englobant la notoriété et la fiabilité de l’individu ou de la personne morale sur Internet (ex : Ebay). Des services se sont également spécialisés dans la gestion de la notoriété et de la réputation en ligne (ex : Outspoken media).
  • La profession (Ce que je fais) mise en avant à travers les réseaux sociaux professionnels (ex : Viadeo, LinkedIn).
  • La publication (Ce que je partage) recense tous les contenus partagés par les utilisateurs tels que les vidéos (ex : Dailymotion, Youtube), les photos (ex : Instagram, Flickr), la musique (ex : SoundCloud), les liens (ex : Easylinkr), etc.

 

 

II.2 La CNIL

Résultat de recherche d'images pour "logo cnil"

La CNIL doit faire appliquer la loi “Informatique et libertés”. Elle doit donc d’abord informer et conseiller toutes les personnes qui le demandent sur les droits et les obligations prévus par cette loi.

La CNIL doit contrôler que ceux qui ont des fichiers respectent bien certaines règles.

Pour cela, la CNIL doit connaître l’existence de tous les fichiers. Les utilisateurs de fichiers contenant des informations sur des personnes doivent en faire la déclaration à la CNIL. Ces renseignements sont rassemblés dans un grand fichier appelé le “fichier des fichiers”. Tout le monde peut écrire à la CNIL pour savoir si un fichier a bien été déclaré.

La CNIL peut faire des contrôles auprès des personnes ou des entreprises qui utilisent des fichiers de données personnelles.

La CNIL doit veiller que les droits des personnes sont respectés. Ceux qui ont des difficultés à exercer ou à faire respecter leurs droits peuvent adresser des plaintes à la CNIL. Dans les cas graves, la CNIL peut donner des avertissements et même dénoncer au juge.

Respect de la vie privée sur internet

Il n’existe pas de réelle définition juridique de la « vie privée » à l’heure actuelle.

L’article 9 du Code civil prévoit que « Chacun a droit au respect de sa vie privée. Les juges peuvent, sans préjudice de la réparation du dommage subi, prescrire toutes mesures, telles que séquestre, saisie et autres, propres à empêcher ou faire cesser une atteinte à l’intimité de la vie privée ; ces mesures peuvent, s’il y a urgence, être ordonnées en référé. »

Le non-respect de la loi peut faire l’objet de sanctions pénales pouvant aller jusqu’à 450 000 eurosd’amende et 5 ans d’emprisonnement.

 


 

LES OUTILS D’INFORMATION

 
 

Les moteurs de recherche sur internet

Google est le moteur de recherche sur internet de référence, il concentre à lui seul plus de 90% des parts de marchés. Quel que soit le navigateur (Google Chrome, Mozilla Firefox, Safari…) ou l’appareil, le géant américain est le plus populaire. Cependant de nombreux moteur de recherche permette d’effectuer des recherches et d’obtenir un résultat très similaire.

Chacun de ces moteurs de rechercher essaie de se différencier en misant sur les faiblesse de Google, parfois avec des idées originales comme par exemple la plantation d’arbres.

Voici une liste des moteurs de recherche et d’outils de recherche les plus notables :

1. Bing
2. Yahoo!
3. Qwant
4. DuckDuckGo
5. Ecosia
6. StartPage
7. Lilo
8. Quora
9. Xaphir
10. Yippy

Les parts de marchés des moteurs de recherche

Nous allons aussi voir différents outils de curation de contenus web ainsi que les outils les plus utilisés actuellement.


1. Bing : moteur de recherche par Microsoft

Ce moteur de recherche a été développé, en 2009, pour remplacer Windows Live. Microsoft enrichit son algorithme afin d’apporter plus de fonctionnalités et une meilleure qualité de recherche pour les internautes. Très proche de Google, Bing est un moteur de recherche et un environnement complet : web, actualités, photos, vidéos, une carte (Bing Maps), un outil de traduction (Bing Traduction) ou encore un comparateur de prix.

« Bing » est censé se mémoriser rapidement et rappelle un peu le moment où on trouve ce qu’on cherche comme « Eureka ». D’autres y voient un message caché : « Bing Is Not Google » ou « Best Is Not Google« . Il capte 5,2% des recherches en France : 18 fois moins que Google.


Haut

2. Yahoo! : un moteur de recherche très complet

Yahoo! existe depuis 2005. En créant beaucoup de fonctionnalités, Yahoo espère grignoter des parts de marchés et devenir l’outsider de Google. Les très riches actualités peuvent se divisent en plusieurs catégories (Sport, Finance, Cinéma, Musique…). Les tendances du jour et une sélection de contenus pertinents sont disponibles. On trouve aussi la recherche multilingue, Mon Web (outil personnalisation), vidéos, photos (Flickr), Del.icio.us…

Il est considéré comme l’un des meilleurs moteurs de recherche par les différentes études.


Haut



3. Qwant : le « Google français » qui vous veut du bien

« Le moteur de recherche qui respecte votre vie privée », c’est la promesse que fait le moteur de recherche français actif depuis 2013 après 2 ans de développement. Qwant garantit que les informations personnelles des utilisateurs ne sont pas stockées et utilisées à des fins commerciales. Aucun cookie ne trace l’internaute : la liste des résultats n’est pas personnalisée comme l’est Google par exemple. Les résultats sont très orientés par l’actualité et les tendances.

On retrouve cette volonté dans l’affichage des résultats. Enfin, Qwant propose une page de résultats très riche avec un menu vertical avec les catégories suivantes : Web, Actualités (Medias), Réseaux sociaux, Images, Vidéos, Shopping et Musique (Beta). La SERP affiche tableau de bord avec une rubrique Web, Actualités et Social (derniers tweets notamment).

Qwant Junior est un moteur dédié aux jeunes : 6-13 ans. Aucun accès à des sites violents, pornographiques ou encore e-commerce. Des actualités adaptées et des sites pédagogiques sont mis en avant tout comme des contenus éducatifs : jeux, quizz. L’Education Nationale plébiscite d’ailleurs ce moteur de recherche. Emmanuel Macron l’a défini comme le « Google français ».


Haut

4. DuckDuckGo : vive la protection des données personnelles

Tout comme Qwant, DuckDuckGo s’engage dans la protection des données personnelles : « le moteur de recherche qui ne vous espionne pas ». Promis, le moteur de recherche américain, créé en 2007, ne traque pas l’internaute. L’adresse IP n’est pas utilisée : les annonces sponsorisées sont affichées grâce à la requête de l’internaute.

DuckDuckGo propose des recherches d’images et des recherches de vidéos. Il utilise près de 400 sites de références : Wikipedia, Bing, Yahoo!, Yelp… En 2016, le nombre de recherches quotidiennes s’élève à 13 millions par jour, soir 400 millions de recherches par mois.


Haut

5. Ecosia : le moteur de recherche écolo

« Nous voulons créer un monde dans lequel l’environnement n’a plus besoin d’être protégé. ».

Ecosia est un moteur de recherche écologique qui vise à réduire la consommation d’énergie imputable à une recherche. Une recherche Google consomme environ 7G de CO2, selon plusieurs études reconnus. Ce moteur caritatif allemande reverse les bénéfices à un programme de reforestation présent dans le monde entier. 5,5 millions d’utilisateurs actifs et réguliers ont permis de planter plus de 14 millions d’arbres.

Une petite équipe de moins de 20 personnes permet de faire fonctionner ce moteur de recherche. Les résultats des recherches et les encarts publicitaires sont fournis par Yahoo! et Bing.


Haut

6. StartPage par ixquick : moteur de recherche « le plus confidentiel »

Encore un moteur de recherche qui protège vos données personnelles. Startpage utilise Google pour afficher les résultats sur la SERP. Cependant, startpage agit comme un intermédiaire : pas de de données sont stockées et réutilisées. Pour le PDG, Robert E.G. Beens, « la confidentialité est un droit humain fondamental ».


Haut

7. Lilo : le moteur de recherche solidaire

Dans la même veine qu’Ecosia, on retrouve le français Lilo qui utilise l’argent récolté pour le réinvestir dans des projets solidaires, sociaux ou environnementaux. Chaque recherche permet de cumuler une goutte d’eau. Les utilisateurs peuvent ensuite alloués leur crédit en gouttes d’eau transformées en argent réel au projet de son choix.


Haut

8. Quora : un moteur de recherche collaboratif

Quora est un moteur de recherche qui se base sur les questions et les réponses des internautes. La communauté vient enrichir une base de données très importante et ordonnée par sujet ou par thème. Le site qui se positionne entre le moteur de recherche et une encyclopédie en ligne revendique 100 millions d’utilisateurs uniques par mois.

Haut


9. Xaphir : le moteur de recherche différent

Xaphir est un moteur de recherche un peu particulier. En effet, Google va chercher à afficher des résultats dont l’ordre (Page Rank) est défini par des algorithmes selon des critères précis. Xaphir fonctionne sur le même principe mais il va demander plusieurs mots clés à l’internaute pour affiner sa recherche. De plus, la popularité du site ne rentre pas en jeu. Un site très populaire ne sera pas affiché en priorité.

Ce moteur de recherche français en bêta tente de nous faire découvrir d’autres sites internet que tout le monde consulte presque machinalement. Un moyen d’améliorer votre navigation ? Peut être mais il montre rapidement ces limites.


Haut

10. Yippy : le moteur de recherche en « clustering »

Yippy est un des rares moteurs de recherche qui pratique le clustering, le partitionnement des données. Chaque résultat, chaque page indexée est analysée et rassemblée avec d’autres, selon son contenu. Des sous-ensembles homogènes sont créés. Cela se fait sous la forme d’une liste (à gauche de la SERP) qui permet de segmenter les résultats.


Haut

Les parts de marché des moteurs de recherche en 2017

Pour mieux se rendre compte de la domination de google sur les autres moteurs de recherche alternatifs, il est nécessaire de regarder les parts de marché des différents moteurs de recherches. Ces données sont rendues publiques par Global Stats Counter (site spécialisé dans l’analyse des données en temps réel sur le web)

Part de marché Google : 91,76 %
Part de marché Bing : 4,99 %
Part de marché Yahoo : 2,46 %
Part de marché DuckDuckGo : 0,62 %
Part de marché MSN : 0,06 %
Autres (Ecosia, Qwant, Lilo…) : 0,11 %
Part de marché des moteurs de recherche
Si la renommée de Google repose sur son moteur de recherche et que ses parts de marché sont énormes par rapport à la concurrence, certains concurrents ont décidé de prendre le géant américain à contre pied. Cette stratégie peut s’avérer efficace avec un algorithme performant capable de rivaliser avec Google. Ce qui est sûr, c’est que Google ne sera pas mis en danger avant des années.
Haut

Outils de curation de contenus web

La curation de contenus est une activité stratégique pour effectuer une veille performante sur les sujets les plus traités par les internautes, par vos concurrents et par les influenceurs

Voici d’outils de curation web les plus notables :

 

 

 

1. Mention

Mention est une véritable bête à tout faire car la plateforme ratisse particulièrement large! Là où Hubspot se concentre sur Twitter, Mention recherche les contenus partout sur le web : Facebook, Twitter, G+ et consorts, les blogs, les sites thématiques et autres sites d’actualités…

Mention
Il suffit simplement de sélectionner un thème (“Mon entreprise/mon produit” // “Un concurrent” //…) puis de renseigner des mots-clés pour voir s’afficher un flux d’informations sur la ou les thématiques choisies.

Un résumé des résultats apparaît, et le déroulé complet et détaillé s’affiche en cliquant alors dessus.
Haut

2. Google actus

Impossible de faire de la curation de contenus sans passer par l’incontournable Google Actus. Le site permet de créer des recherches personnalisées sur telle ou telle thématique en renseignant là encore un groupe de mots-clés.

Google Actualités
Des résultats sont donnés instantanément avec la possibilité de choisir de ne s’intéresser qu’aux informations en provenance de blogs. Et en créant des alertes, vous recevrez ces données directement sur votre boîte email ou via SMS, et ce une fois par jour ou une fois par semaine.
Haut

3. Buzzsumo

Buzzsummo permet de rechercher des contenus pour un seul mot-clé à la fois, mais son champ d’investigations pallie cette petite contrainte. Car Buzzsumo est en quelque sorte le Google des réseaux sociaux dans la mesure où il fait remonter des contenus ciblés en provenance d’absolument toutes les marques social media. L’assurance de ne louper aucun contenu publié ou partagé sur l’ensemble des réseaux sociaux !

Buzzsumo
Les résultats sont même triés par nombre de partages, ce qui informe parfaitement sur le poids et l’importance de telle ou telle thématique.
Haut

4. Les Newsletters

Simple mais pourtant terriblement efficace ! En vous abonnant à la newsletter de vos principaux concurrents vous pourrez être informé sur ce qu’ils disent, comment ils le disent, quelle est leur actualité. Plus encore, cela vous donnera l’opportunité de repérer les sujets du moments qu’ils abordent, afin de rester toujours dans le coup ! Il ne vous reste plus qu’à vous rendre sur les sites de vos trois, quatre, cinq (ou plus!) plus importants concurrents et de vous inscrire à leur newsletter. D’ailleurs, ils l’ont peut-être même déjà fait avec votre propre newsletter !
Haut

5. Twitter Search

Dès lors que vous possédez un compte sur Twitter, vous avez la possibilité d’utiliser l’outil Twitter Search.

Twitter
Aisée d’utilisation et performante, la solution permet de repérer les Tweets de tous ses membres (clients, prospects, prescripteurs…) d’entreprises concurrentes, de personnalités, d’influenceurs qui traitent de tel ou tel sujet. Il suffit de renseigner des mots-clés et des hashtags pour suivre les conversations et les contenus partagés.
Haut

6. Scoop it

Scoop It fait partie des solutions leaders sur le marché pour réaliser une curation de contenusdigne de ce nom. Car la plateforme scanne le web sous toutes ses formes et dans le monde entier.

scoopit

Différents critères permettent d’affiner sa recherche tels que les sites à passer au crible (Google actus, Facebook, Twitter…) ou la langue souhaitée. Et le résultat est donné sous forme d’un journal en ligne actualisable en temps réel. Une mise en page aérée qui facilite grandement la prise d’informations. Bonus : Scoop It offre la possibilité de partager le contenu récupéré sur ses comptes réseaux sociaux ou sur le blog de l’entreprise.
Haut

7. Hubspot

Si Hubspot et LA plateforme incontournable en inbound marketing, elle est également d’une très grande utilité pour repérer, filtrer et amalgamer les sujets chauds du moment, ceux en rapport avec votre secteur d’activité. Et Hubspot s’intéresse plus particulièrement à ce qu’il se dit et se partage sur Twitter. Car la marque se positionne en troisième position dans le trio de tête des réseaux sociaux, avec près de 13 millions de membres en France. Y mener une veille de contenus est donc incontournable.

hubspot
L’onglet “Social” et “Monitoring” de Hubspot est à ce titre redoutable d’efficacité. En renseignant simplement quelques mots-clés, Hubspot fait alors remonter un flux complet de publications en provenance de ses membres, à savoir vos clients existants et vos clients potentiels, vos concurrents et les influenceurs les plus en vue du moment.

Hubspot, Mention, Google Actu, Buzzsumo, newsletters, Twitter Search, Scoop it… vous voilà à présent armé comme il se doit pour vous lancer dans la bataille de la curation de contenus !

 


 

CRM

Définition CRM  : Custumer relationship Management ; en français : Gestio de la relation client. Il regroupe l’ensemble des dispositions ou opération de marketing ou de support ayant pour but d’optimiser la qualité de la relation client de fidéliser et de maximiser le CA ou la marge par client.

  • Collecte et analyse de données clients
  • Développement par les canaux de contact digitaux
  • Gère la relation et les interactions clients/prospects.

De plus en plus utiliser en mode SaaS : Sofware as a Service. C’est un mode d’utilisation des logiciels à distance qui est hébergée par l’éditeur. Il utilise généralement internet et évite aux entreprises des contraintes d’installation et de mise à jour.

On peut citer Salesforces, un des outils les plus utilisés. Il permet une large utilisation et une personnalisation pour les comptes rendus. On peut créer une large variété de thème pour les comptes rendus, indiqués la personne avec qui on a été en communication, les dates. Si le contact amène à un devis ou contrat on peut le spécifier et se mettre des rappels où lancer des rappels aux autres pour relancer le client/prospect.

Les nouveautés :

  • Association multicanale : Zoho à lancé l’an passé un outil multicanal qui permet d’associer les e-mails, les médias sociaux, le live chat et la communication téléphonique.
  • Association des supports : Pour être toujours plus près des commerciaux, les CRM sont disponibles sur de nombreux support : Ordinateur, smartphone et tablette.

 

Plateforme partagée d’échanges :

Les plateformes partagées d’échange permettent de favoriser l’échange et le partage d’informations dans une entreprises.

Elles se présentent sous forme de logiciel interne, de blogs ou d’interfaces EDI (échange de données informatisées).

Ainsi un commercial peut suivre facilement l’état d’une commande pour un de ces clients.

Il favorise les échanges et les liens entre les différents services pour faciliter le travail de tous. Ainsi un gain de temps s’en trouve créer. Si on reste sur l’exemple du commercial, celui-ci ne perd pas de temps à contacter le service production, ou expédition pour savoir où en est la commande de son client.

Ci-après une vidéo qui explique le fonctionnement d’une plateforme partagée d’échanges de BizzNex.

 

Outils de traçabilité :

Les outils de traçabilité sont des outils sous forme de logiciel permettant de suivre un ou plusieurs éléments du cycle de vente et/ou production. On peut notamment trouver des logiciels de gestion de stock, suivi de production, … où un seul logiciel permettant de réaliser le suivi de plusieurs éléments.

L’entreprise la mieux référencé sur Google et proposant ce type de logiciel est V-Ingénierie.

C’est important pour une entreprise car il va permette de mieux gérer les stocks et de travailler plus facilement en flux tendu pour faire des économies. C’est également ces outils qui permettent d’alimenter les plateformes partagées d’échanges.

 

Les améliorations les plus réaliser ces dernières années pour l’ensemble des ces outils est la recherche de rapidité, un design améliorer et augmenter l’intuitivité des outils pour en faciliter leurs utilisations.


 

LEXIQUE INTERNET : LE DICTIONNAIRE DU E-MARKETING

 
 

Les évolutions sur les techniques marketing : Du marketing 1.0 au marketing 3.0

Le paysage web a subit de nombreuses évolutions au cours des 20 dernières années en raison des innovations technologiques et des changements des comportements des individus, le développement de nouvelles pratiques et tendances de consommation.

Aujourd’hui de nombreuses sources convergent vers la chronologie suivante pour découper les phases clés du web :

  • le web 1.0 a marqué la période 1990-2003 : on parle des moteurs de recherche et de l’essor des premières plateformes de transfert de fichiers.
  • le web 2.0 se situe entre 2004-2008 : on parle des médias sociaux, du blogging, du web en tant que plateforme,de participation et collaboration, bref l’intelligence collective.
  • le web 3.0 depuis 2009 : on parle d’interconnectivité, de temps réel, d’objets connectés, de mobilité et de sémantique des données.

A chaque évolution du web, le marketing s’est adapté, mais en réalité c’était déjà le cas avant l’apparition du web, dans la mesure où les clients et leurs attentes ont évolué naturellement et où la relation avec ces clients a dû changer également. Il est possible de parler d’évolution de la fonction marketing qui serait passée au file du temps d’un marketing 1.0 à un marketing 2.0 puis pour certains jusqu’à la version la plus récente dite marketing 3.0.

.

Le marketing 1.O : un focus sur le produit :

individus marketing 1.0Le marketing 1.0 existait déjà avant l’ère d’internet et du web 1.0. Il y eu plusieurs vagues à partir de l’après-guerre :

  • La gestion des produits (période de 1950 à 1970)

Née aux Etats-Unis, l’essence même du marketing était centrée sur les produits et est devenue progressivement une discipline enseignée et étudiée dans le monde entier (à partir des années 1960). Cela est dû notamment à la révolution industrielle qui a permis de produire en abondance. De nombreux concepts font leur apparition à cette époque, tels que le marketing mix, les 4P, la segmentation de marché.

=> Le marketing de cette époque a permis de produire en plus grande quantité.

  • La gestion des clients (période de 1970 à 1990)

Les entreprises accordent plus d’importance à leurs clients, voyant qu’elles évoluent sur un marché concurrentiel. Cela est en partie rendu possible grâce aux travaux de Michael Porter qui proposa en 1979 un modèle des « 5 forces de Porter » permettant de mettre en exergue l’environnement concurrentiel dans lequel évolue une industrie. Le client est encore loin d’être intégré dans le processus marketing, mais désormais, les notions de ciblage, de positionnement ou encore de marketing stratégique font leur apparition et permettent d’apporter aux clients des produits qui répondent mieux à leurs attentes.

=> Le marketing de cette période a permis de cibler les clients.

  • La gestion de la marque (période de 1990 à 2000)

Les entreprises commencent à privilégier les relations one-to-one ce qui fait de cette décennie une période transitoire entre le marketing 1.0 où dominent les relations one-to-many, au marketing 2.0 centré sur le client en tant qu’individu unique. Cette période fait prendre conscience aux entreprises des possibilités qu’offre la technologie avec les premiers pas du web. Elles repensent alors leur stratégie en s’axant davantage vers la création d’une identité de marque forte tournée sur le long terme. Le développement technologique va alors ouvrir tout naturellement les portes de nouvelles orientations marketing, on parle alors au début des années 2000 de marketing 2.0.

Le marketing 2.0 :une orientation client :

marketing 2.0

Avec l’avènement des blogs, des forums, des réseaux sociaux et surtout de l’intelligence collective et participative, une nouvelle approche du marketing s’est construite. En effet, pendant longtemps, le consommateur n’a été qu’un récepteur d’informations. Mais avec l’arrivée du web 2.0 au début des années 2000, il commence à communiquer avec la marque. C’est l’une des raisons pour lesquelles le web est si puissant, puisqu’il permet aux consommateurs d’échanger et de partager leurs avis, d’interpeller les marques / entreprises en entrant en contact avec elles. Certains consommateurs vont même se prêter au jeu de la création de contenu pour le compte des marques (UGC). Le discours des entreprises ne peut donc rester unilatéral et les services marketing doivent s’adapter à ce changement de fond, sous peine de perdre le contact avec leurs clients.

Le marketing 2.0 est une expression largement utilisée sur le web et qui a été initiée par l’ensemble des experts du web car ce langage 2.0 correspond à leur activité principale sur le média internet, tandis que les autres médias de masses (TV, Radio, etc) sont plutôt secondaires pour eux. Je précise bien ici que ces médias sont considérés comme secondaire mais pas inutiles, car aujourd’hui les meilleures stratégies intègrent des campagnes multicanales et / ou crosscanales. Il est impensable d’avoir une approche à 360° en excluant les autres médias traditionnels.

7 dimensions de l’écosystème digital

Le marketing 2.0 est donc une version modernisée du marketing qui repose sur l’ensemble des concepts, plateformes et outils instaurés par le web 2.0, ce qui implique que les entreprises évoluent désormais dans un écosystème stratégique digital complexe. Ce nouvel environnement digital peut se découper en 7 dimensions :

  • Expérience 

L’expérience client n’est pas un phénomène nouveau. Il désigne l’ensemble des émotions et sentiments que ressent un client avant, pendant et après son achat. De nombreux éléments hétérogènes entrent en compte pour constituer une expérience tels que l’existence ou non d’une relation privilégiée entre entreprise et client, le ton publicitaire, etc. Les outils digitaux ouvrent les portes de nouvelles interactions entre les clients et les marques et les possibilités sont nombreuses (serious game, réalité augmentée, etc).

  • Influence

L’influence est un pouvoir social qui va amener les individus à se joindre à l’avis de celui qui détient l’influence. L’un des aspects du marketing d’influence consiste en la recherche des personnes influentes sur des secteurs d’activité définis afin d’amplifier la viralité lors de la diffusion d’un message, grâce à l’e-réputation des influenceurs. Mais le marketing d’influence comprend également d’autres aspects tels que les relations presses (RP 2.0), le marketing viral, le buzz ou encore le guerilla marketing.

  • Engagement

La nouvelle promesse du digital lorsque l’on parle de marketing d’engagement est de permettre la reconquête du cœur des consommateurs en les impliquant dans une relation authentique, ouverte et transparente avec les marques. Le web social et le community management font leur apparition avec le marketing 2.0 et vont même jusqu’à créer de nouveaux métiers du web tels que community manager ou social media manager, ce qui justifie de l’intérêt croissant que portent les marques aux médias numériques.

En terme de médias, là où le « paid media » représente la publicité qui est bien souvent perçue comme intrusive, le marketing d’engagement se situe entre le « earned media » (blogs, vidéos, commentaires, photos, conversations…) et le « owned media » (site corporate, plateforme communautaire hébergée par la marque…). Ce qui fait du marketing d’engagement un mix idéal entre fans et clients, là où une publicité traditionnelle de masse touche… la masse.

La notion d’engagement a fait beaucoup de bruit ces 5 dernières années, car après une course aux fans effrénée de la part des marques sur Facebook (aux environs des années 2009/2010), ces dernières ont revu leur stratégie social media pour favoriser l’engagement, nouvelle promesse marketing pour conquérir et fidéliser des clients sur les médias sociaux.

  • Participation / Collaboration

Face à l’emergence du co, les marques essayent de mettre en place des plateformes collaboratives pour tirer bénéfice de l’intelligence collective. Le marketing s’intéresse donc au crowdsourcing, au crowdfunding, ou encore aux wikis.

  • Brand content

Dans une ère digitale où la concurrence est forte sur les nouveaux médias, les marques doivent créer un contenu original, pertinent et efficace en accord avec leurs valeurs. L’émergence des plateformes de partage de photos telles qu’Instagram (rachetée en avril 2012 par Facebook, mais vous le saviez surement déjà), constitue une porte d’entrée pour que les marques se rapprochent des consommateurs. Ce contenu de marque peut être une image, une photo, de la musique, ou tout un dispositif tout dépend des objectifs marketing et de la stratégie adoptée sur les médias sociaux.

  • Brand utility

Dans l’objectif de créer un attachement durable avec le consommateur (vision long-termiste), le marques vont proposer des services ou créer des contenus spécifiques afin de délivrer une information utile/pratique aux consommateurs.

Exemple : L’enseigne de bricolage Castorama a très bien compris l’utilité du brand utility et propose déjà depuis plus de 4 ans sa chaîne « Lancez-vous » sur laquelle vous pouvez découvrir des tutos vous permettant de bricoler facilement chez vous grâce à leurs conseils avisés.

  • Activation

La notion d’activation correspond aux dispositifs publicitaires qu’il est possible de mettre en place dans une stratégie webmarketing ou digitale tels que le SEM, le display, l’affiliation, l’e-mailing. Bien qu’ils correspondent à des dispositifs « intrusifs » que l’on peut classer dans le paid media, ils permettent d’être de véritables leviers pour améliorer les performances d’un site e-commerce par exemple.

Le marketing 3.0 : diffuser des valeurs :

marketing evolutionAvec l’apparition du web 3.0 et des nouveaux enjeux qu’il soulève tels que l’interconnexion, la mobilité, la personnalisation ou la diffusion de l’information en temps réel, la fonction marketing est à nouveau contrainte de faire face à l’évolution du comportement des consommateurs. La littérature évoque le terme de marketing 3.0 depuis le début des années 2010, avec notamment le livre de Philip Kotler tenant pour gros titre «  marketing 3.0 » et qui semble être le seul ouvrage à avoir analysé ce thème aussi profondément.

Véritable révolution de la fonction marketing ou simple utilisation académique pour faire parler du marketing ? Il semblerait que pour l’instant, le marketing 3.0 reste un concept, une nouvelle vision que doivent adopter les marques pour les années à venir, car la mise en pratique de techniques de marketing 3.0 ne semblent pas exister pour l’instant et s’apparentent davantage à ce que le marketing 2.0 nous a déjà enseigné.

Définition et enjeux du marketing 3.0

Pour comprendre en quoi consiste le marketing 3.0, Kotler le compare aux versions précédentes du marketing en indiquant que

Là où le marketing 1.0 était centré sur les produits, le marketing 2.0 sur les clients, le marketing 3.0 se concentre sur l’humain.

Dans son ouvrage Kotler suggère que les entreprises abordent une approche centrée sur l’humain (human-centric approach), mêlant l’humain dans toutes ses dimensions émotionnelles, intellectuelles et spirituelles…

Se concentrer sur l’humain est une belle promesse, ou du moins un objectif ambitieux. Toutefois, lorsque le marketing évoquait les termes de produit et de client, respectivement pour le marketing 1.0 et le marketing 2.0, ces dimensions étaient tangibles. Les applications de ces concepts marketing ont bien eu lieu, par exemple avec le marketing direct lorsque le focus était sur les produits ou le marketing social lorsque le focus s’est déplacé sur les clients.

Or, le marketing 3.0 qui se concentre sur l’humain reste une vision très conceptuelle du marketing, dont les seules applications perceptibles pour l’instant se traduisent par la prise de conscience des entreprises :

  • De l’importance des valeurs sociétales et environnementales. Par exemple, la marque Timberland qui met en avant son approche écologique de recyclage des matériaux chimiques.
  • De l’importance de traiter correctement ses fournisseurs, ses clients, ses salariés. Cela semble pourtant une évidence…

Les entreprises qui innoveront dans leur stratégie marketing et qui seront avant-gardistes de ce marketing 3.0 encore en construction, seront celles qui intégreront intelligemment les consommateurs en tant qu’individu humain et non plus en tant que client. L’objectif étant de satisfaire les valeurs des clients (complexe).

Avec le développement des nouvelles technologies, du web, des médias sociaux, les consommateurs ont pris conscience du pouvoir qu’ils ont entre leurs mains et leurs attentes vis-à-vis des marques et des produits qui ont évolué. Ainsi, dans un avenir très proche, les consommateurs ne se contenteront plus d’acheter des produits et services uniquement en fonction de leurs caractéristiques ou des recommandations sociales de leur cercle d’influence. Ils ajouteront une dimension complémentaire pour effectuer leur choix, celle des valeurs environnementales et sociétales des marques.

Finalement, le projet ambitieux du marketing 3.0 est d’ajouter une troisième dimension à l’écosystème du marketing qui se caractérise par un marketing créateur de valeur pour le client, pour l’entreprise et pour la société au sens large.

 


 

MANAGEMENT ET SYSTÈMES D’INFORMATION – LES OUTILS

 
 

SOMMAIRE

ERP ou PGI
KNOWLEDGE MANAGEMENT
LA GED
BUSINESS INTELLIGENCE

 

ERP ou PGI

Un progiciel de gestion intégré (PGI) est un outil informatique permettant de piloter une entreprise. Il s’appuie sur une base de données commune à tous les services de l’entreprise et permet de gérer l’ensemble des processus de celle-ci.

1. Définition du Progiciel de Gestion Intégré PGI

Un PGI est la traduction en Français du terme ERP « Enterprise Resource Planning » qui signifie « planification des ressources de l’entreprise ». C’est une imbrication d’applications informatiques plus ou moins étendues (gestion des commandes, gestion des stocks, gestion des ventes, gestion de la comptabilité, contrôle de gestion) émanant d’un éditeur unique. Chaque application est appelé module. L’entreprise a généralement le choix de(s) module(s) en fonction de ses besoins. Chacun d’entre eux peut couvrir un périmètre de gestion de l’entreprise. Le PGI, quant à lui, peut couvrir l’ensemble du Système d’Information de l’entreprise (SI).

Un Progiciel de Gestion Intégré PGI regroupe donc plusieurs modules indépendants qui partagent toutefois une seule et unique même base de données (contenant les fiches « produits », fiches « fournisseurs », fiches « clients », les gammes, les stocks etc.). Ces modules sont exploités par un système automatisé prédéfini en amont et paramétré.

2. Intérêts d’un Progiciel de Gestion Intégré PGI

Les avantages d’un Progiciel de Gestion Intégré sont nombreux (la plupart d’entre eux viennent combler certaines carences des applications classiques du type logiciel de gestion commerciale utilisant notamment des bases de données différentes) :

      • Unicité du système d’information : les PGI supprime les risques de doublons et donc le risque d’erreur, la base de données étant commune à tous les modules
      • Outil de productivité : les PGI permettent un gain de temps considérable (des écritures comptables peuvent être créées et générées de manière automatique, les données sont mises à jour en temps réel)
      • Optimisation des processus : les processus de l’entreprise se retrouvent plus standardisés, le PGI jouant un rôle structurant
      • Diminution de certains coûts : l’ergonomie du PGI étant la même pour tous les modules, les coûts de formation du personnel à son utilisation sont limités
      • Meilleure maîtrise des coûts : l’information financière (et l’information de gestion) sont produites de manière plus efficace et efficiente. Les délais s’en trouvent réduits et les coûts plus facilement identifiables
      • Une utilisation évolutive : le PGI étant défini par une combinaison de modules, l’entreprise utilisatrice peut facilement intégrer de nouvelles applications

       

3. Limites d’un Progiciel de Gestion Intégré PGI

Le recours à un PGI n’est malheureusement pas sans inconvénients :

      • Complexité : avant de déployer un PGI, l’entreprise doit avoir connaissance de l’ensemble de ses processus et de leur fonctionnement. A défaut, le périmètre couvert par le PGI ne sera pas adapté et son efficacité pourra être entachée
      • Coût : en général, le coût lié au déploiement du PGI et à sa maintenance (quasi-indispensable étant donné la complexité des programmes) est très élevé. Il convient cependant d’atténuer cette remarque par le fait qu’avec la maintenance, l’entreprise gagne certains « coûts cachés » tel que le coût interne lié à l’utilisation de l’ancien logiciel, son paramétrage ou sa maintenance
      • Dépendance envers l’éditeur du PGI : il est rare, en pratique, de changer de PGI une fois qu’il a été déployé. L’entreprise doit s’assurer qu’elle fait le bon choix, compte tenu de ses besoins
      • Matériel adéquat : la base de données étant volumineuse, un PGI nécessite l’installation de serveurs réseaux très puissants

       

  • Conclusion :

    les Progiciels de Gestion Intégrés (PGI) sont des applications complexes regroupant différents modules, choisis par l’entreprise en fonction de ses besoins. Ils trouvent à s’appliquer, en général, dans les grandes entreprises. Leurs avantages sont nombreux et indéniables : information de meilleure qualité, productivité accrue, optimisation des processus, maîtrise des coûts. Ils permettent une analyse transversale de l’entreprise. Ils sont évolutifs et l’accompagnent au cours de son développement.

    • Retour au début de la page 

      LE KNOWLEDGE MANAGEMENT

      Le knowledge Management ou Gestion de la Connaissance est l’utilisation d’une famille d’outils, de méthodes et de modes d’organisation pour faciliter la conservation et surtout le partage des connaissances réparties dans l’entreprise.
      Le concept a pour ambition d’identifier, de valoriser et de diffuser les connaissances de l’entreprise

      Les enjeux du knowledge management

      Dans l’entreprise, une quantité faramineuse de connaissances, compétences et savoir-faire demeurent totalement inconnus et donc inaccessibles. Il est malheureux de buter toujours sur les mêmes problèmes sans savoir qu’ils ont déjà été résolus par le passé ou qu’un collaborateur dispose de l’expertise salvatrice. La gestion des connaissances (KM) a ainsi pour objet d’identifier et de globaliser les connaissances statiques et dynamiques afin d’en faciliter l’accès.

      La connaissance

      La connaissance est en fait un ensemble d’informations structurées, orientées sur un sujet et validées par des règles ou par l’expérience. Les connaissances dites “explicites”, formalisables et donc informatisables ne représentent qu’une faible part de l’ensemble des connaissances globales.

      Le principe du knowledge management

      La valorisation des connaissances, but ultime du projet de gestion des connaissances, comporte 2 phases essentielles :

          • Identifier et capitaliser les connaissances : Le stockage des objets de la connaissance, comme le propose la GED (Gestion Electronique des Documents) n’est qu’un aspect. Il ne doit pas occulter la gestion des flux d’échanges entre les hommes qui les produisent et les utilisent.
          • Pour mieux les partager : Accès aux différentes bases documentaires pour tous, mais aussi l’élaboration d’une cartographie des profils pour repérer rapidement les experts et échanger avec ces derniers grâce à des outils de communication et de partage impromptus rapidement opérationnels.
          • En une spirale de progrès continue : Dans tous les cas, la gestion des connaissances s’inscrit dans une dimension d’amélioration en continu. Les connaissances et définitions des profils seront continuellement mises à jour, l’expérience des uns contribuant en permanence à l’apprentissage commun. La capitalisation et le partage des connaissances ne sont pas disjoints et s’expriment au long d’une spirale continue de progrès.

Retour au début de la page

LA GED

La GED – ou Gestion Electronique des Documents – s’intéresse donc aux documents et aux données associées, et permet d’optimiser leur gestion et leur exploitation par des moyens électroniques spécialisés et performants.

La GED est un procédé faisant intervenir des moyens électroniques – typiquement des logiciels et/ou des matériels – pour prendre en charge la gestion des documents, à savoir les opérations et actions destinées à traiter et à exploiter les documents, par exemple la capture, l’acquisition, la numérisation, la validation, la diffusion, le classement, l’indexation, l’archivage, Etc.

Les automatismes rendent plus fiables les documents, leur gestion, leur accès, leur exploitation, et permettent aux utilisateurs de se consacrer davantage à leurs tâches à valeur ajoutée tout en réduisant considérablement les risques d’oubli et d’erreur.

Vous avez une question ? Un projet de GED à mettre en place ? Nos experts vous répondent gratuitement. Utilisez le formulaire ci-contre pour poser toutes vos questions.

 

 

Retour au début de la page

BUSINESS INTELLIGENCE

De l’exploitation des données métiers à la gouvernance IT, le point sur la Business Intelligence, et ses outils de type décisionnel : le reporting, le tableau de bord et l’analyse prévisionnelle.

 

Quel est l’objectif de la Business Intelligence ?
La Business Intelligence (BI), également “intelligence d’affaires” ou “informatique décisionnelle”, englobe les solutions IT apportant une aide à la décision aux professionnels avec, en bout de chaîne, des rapports et tableaux de bord de suivi des activités de l’entreprise à la fois analytiques et prospectifs.

Cette notion apparait à la fin des années 1970 avec les premiers infocentres. Des systèmes qui envoyaient des requêtes directement sur les serveurs de production, ce qui se révélait plutôt dangereux pour ces derniers. Dans les années 1980, l’arrivée des bases relationnelles et du client / serveur permet d’isoler l’informatique de production des dispositifs décisionnels. Dans la foulée, des acteurs se sont lancés dans la définition de couches d’analyse “métier”, dans le but de masquer la complexité des structures de données. A partir des années 90 et 2000, les plateformes de BI s’articulent autour d’un entrepôt de données (ou datawarehouse) pour intégrer et organiser des informations en provenance des applications d’entreprise (via des mécanismes d’extraction, de transfert et de consolidation – ou ETL). Objectif : répondre de manière optimisée aux requêtes d’outils de reporting et tableaux de bord d’indicateurs situés en aval, et mis à la disposition des responsables opérationnels.

Comment fonctionne les outils décisionnels aujourd’hui ?
Depuis quelques années, les plateformes de BI bénéficient des bases NoSQL, qui leur permettent de traiter directement des données non-structurées. Les applications de Business Intelligence bénéficient, aussi, d’architecture matérielle plus puissante, avec l’émergence des architectures 64 bits, du multi-cœur, et du traitement en mémoire vive (in-memory). Elles peuvent ainsi exécuter de manière plus rapide des traitements complexes, tels des modèles prédictifs (data mining) et des analyses multidimensionnelles – qui consistent à modéliser des données selon plusieurs axes (chiffre d’affaires / zone géographique, catégorie de client, de produit…).

Quels champs sont couverts par la BI ?
Traditionnellement centrée sur les questions comptables (consolidation et planification budgétaire), la BI s’est petit à petit étendue à l’ensemble des grands domaines de l’entreprise, de la gestion de la relation client à la gestion de la chaîne logistique en passant par les ressources humaines. Des éditeurs spécialisés ont défini des bibliothèques d’indicateurs prêts-à-l’emploi permettant de suivre ces différentes activités.Pour finir, l’apparition de nouvelles technologies web (dont HTML5 et les interfaces graphiques JavaScript et AJAX) a permis, aussi, l’émergence de nouveaux acteurs proposant une approche de la BI en mode cloud ou SaaS

 

Les CMS libres

  • Joomla!

    Joomla! est un CMS Open Source sous licence GNU GPL, très répandu. L'installation est facile, ne demandant que le trousseau d'accès au serveur MySql. L'utilisateur découvre un site préconfiguré avec des exemples de contenus structurés et un back-office qu'il peut

  • 1
  • 2
  • 3

Prenez contact

 Openspice
 Via formulaire
 +33686574003
 +33367083077
 FRANCE
 Strasbourg

Gardez contact