Tag: reseau social

Plaxo, à vendre ?

On apprend dans le New York Times que le site de partage de carnet d’adresse Plaxo serait à vendre.

Plaxo existe depuis sept ans et compte plus de 15 millions de membres. Il y a 6 mois, Plaxo a tenté de passer au modèle réseau social avec une nouvelle version. Mais la société n’est toujours pas rentable et serait vendue aux enchères avec un montant de départ de 100 M$.


UMPnet, déclinaison politique du réseau social

Le marketing politique de l’UMP met en ligne une plate-forme participative évènementielle dédiée aux prochaines élections municipales en France.

Techno : Très web 2.0 avec une carte géographique, de la vidéo, un nuage de mots clés, album photo, …

Usages : Dès le sous-titre « la fédération numérique », on a un collage conceptuel alliant le mot numérique au terme fédération qui appartient au registre des partis politiques. L’internaute peut s’informer, participer aux débats de campagne nationaux et de proximité, organiser des réunions, inviter des personnes, …

Le modèle du réseau social sur Internet est donc suffisant pour copier la réalité d’une fédération.


Facebook, laboratoire de la vie des réseaux sociaux ?

Facebook, cul-de-sac ?

Les mésaventures très médiatiques de Robert Scobble, un bloggueur américain influent, montrent qu’il n’est pas possible d’exporter les données que l’on a saisi dans ce réseau. Est-ce que Facebook serait un réseau du type cul-de-sac ? Naïf que nous serions à croire que les réseaux doivent être ouverts ?

Facebook de concours ?

Les réseaux sociaux sont victimes d’un effet pervers que l’histoire toute récente de Facebook met en lumière. Beaucoup de ces utilisateurs ne seraient-ils pas plus à la recherche du plus grand nombre de contacts que d’être des utilisateurs de leurs contacts ? Dans la vraie vie, les gens comme vous et moi, n’ont jamais des milliers d’amis, mais quelques bons amis sur qui compter. Le réseau social est-il simplement un jeu où le gagnant affiche un score, celui de nombre de ses contacts ?

Facebook et la vie privée de ses membres

Le site vient de recevoir une deuxième pétition pour la suppression de nouvelles fonctionnalités ressenties par les membres comme contraire au respect de leur vie privée. La première a reçu plus de 700000 signatures ; le seconde 50000. On constate que Facebook a réagi plus vite pour la deuxième protestation. En terme de gestion des évolutions, ne serait-il pas judicieux dans un réseau social de consulter les membres plutôt que d’être acculé à des coupes fonctionnelles a postériori ?

Et alors ?
Il n’en demeure pas moins que Facebook est très fréquenté et que ce n’est pas un mauvais sujet de sa majesté Internet. Cet article n’a d’autre visée que de chercher à comprendre le dessous de la toile (à l’instar d’un certain dessous des cartes) pour analyser les usages des webs (1, 2 … 3).


Web 2.0 – Les nouvelles navigations

Au commencement était le lien !

L’utilisateur, d’un clic sur un mot ou une image, arrive à un endroit précis. Le changement d’aspect du curseur est l’espérance d’un contenu précis. Souvent, connaissant déjà le site, le surfer sait ce qu’il va trouver. Il revient à une page connue. Ou bien, plus tard, il sait qu’il retrouvera cette page.

Puis il y eu le moteur de recherche

Curieux objet que nous désignons par recherche alors que nous voulons trouver. Il est bien rare que le surfeur utilise ce genre de moteur pour rechercher uniquement … généralement il trouve. Enfin, nous lui souhaitons. Et le contenu sera en lien direct avec son centre d’intérêt. En revanche, il n’est pas assuré de retrouver les mêmes pages ultérieurement. De nouveaux contenus peuvent être mis en ligne, les algorithmes de recherche peuvent évoluer.

L’accès indirect

Ce troisième mode n’a pas plus Web 2.0 que les 2 précédents … patience ! Donc, l’indirect, vous le connaissez. Il peut être sémantiquement guidé, par exemple lorsque vous accédez à une catégorie dans un blog. L’indirect peut aussi être circonstanciel, c’est le cas de l’accès par la date dans un blog. Qu’allez-vous trouver ? Est-ce que la date vous dit quel genre de contenu vous allez découvrir ?

L’indirection n’est pas très déterministe. Il vous appartient de poursuivre votre chemin. Alors, rien ne dit que vous retrouverez un contenu précis.

La navigation suggérée

Ca c’est du Web 2.0 ! Imaginez un peu ceci. Vous êtes dans votre site préféré, vous y avez déjà surfé … Une intelligence câblée dans le site, ou la page, ou le morceau de page va prendre en compte ce qu’il sait de son visiteur, en l’occurrence vous, et en profiter pour faire l’intelligent. Le plus justement possible, il va vous suggérer une suite logique à ce que vous faites.

Par exemple, le bas de page que vous n’avez pas encore découvert va contextuellement prendre tel ou tel aspect.

Cette modalité de navigation que vous avez déjà vu dans google maps (la carte se prépare en mémoire, dans votre navigateur, au fur et à mesure de votre progression, de façon opportuniste et efficace), va se développer dans les pages de commerce en ligne pour le cross-selling par exemple.

Avec la navigation suggérée, vous n’êtes plus le maitre à bord. Il y a un autre capitaine qui s’est invité et vous fait écouter le chant des sirènes …

Les copains d’abord

Le « social bookmarking », c’est à dire les favoris proposés par les proches sont aussi une façon très Web 2.0 de naviguer. Tiens ça me rappelle ce jeu idiot de la télé. Le présentateur vous pose une question. Comme vous ne savez pas répondre, vous appelez un proche et c’est à lui de vous sortir du problème. On ne peut pas dire que cette façon d’avancer soit déterministe. Si vous aviez demandé un autre copain, vous auriez peut-être eu une autre réponse …

Et ce ne serait pas complet sans évoquer la sérendipité

La quoi ? Ah oui, je publierai rapidement un billet pour vous en donnez la définition …

Il s’agit d’organiser un recours à l’aléa comme une source potentielle d’enrichissement. Le principe est simple, sa mise en oeuvre encore plus et les gains inattendus. Wikipedia vous propose ainsi une page au hasard. J’en ai même fait ma page d’accueil dans l’un de mes navigateurs. Chaque jour, j’apprends quelque chose de nouveau.

Imaginez une page au hasard dans l’intranet du grand groupe international qui vous emploie …

je reviendrai sur ce thème que je trouve très en lien avec le Web social. La loi de Metcalfe et l’aléa n’ont pas tout dit !


Blog, comment j’ai choisi mon moteur

Quand j’ai souhaité ouvrir ce blog, la question technologique n’était pas la moindre : quel moteur allais-je choisir et selon quels critères ? Alors, premier réflex (conditionné), je demande à Google. Faites le test … avec une recherche sur « blog ». La réponse de Google est éloquante : de la pub, de la pub et du bruit. Alors, je me reprends et je tente « choisir un moteur de blog ». C’est là que les choses ont effectivement changé.

En effet, j’ai trouvé des blogs et j’ai commencé à lire ce que des blogers avaient écrit. J’ai par exemple lu le blog de Claire Bernier

Au lieu du mode « Google et ses algorithmes de search », je suis passé au « réseau social des blogueurs ». Il y a comme un glissement de la pertinence … Le web est envahi, submergé. Les modalités de recherche classiques ne sont plus pertinentes.

Après avoir lu des pages de blogs, je suis passé à des articles de wiki … Bref, c’est en passant par le Web 2.0 que j’ai trouvé une grande quantité d’avis autorisés sur le sujet. J’ai encore fait appel à un site de comparaison très bien fait weblogmatrix. Ce comparateur m’a notamment quel moteur était le plus comparé aux autres …

J’hésitais encore entre 2 ou 3 moteurs. J’ai alors pris l’option suivante : choisir le moteur le plus utilisé parmi les plus récents. Cela m’a donné : WordPress.

Il me restait à vérifier par la pratique. Je n’ai pas été déçu : il est très facile à installer, une très bonne version française est disponible, les fonctionnalités sont remarquables, l’administration très solide … Les styles de présentation comme les plugins sont très nombreux. Bref, je ne peux que vous le recommander.

Ah oui, j’allais oublié … WordPress est gratuit !


Le bruit du Web 2.0 : les nouveaux usages pour une recherche pertinente …

Comme je l’écrivais hier, on peut pratiquement définir le web caché comme étant celui qui échappe aux moteurs de recherche. En effet, même s’ils sont très efficaces, ils n’indexent qu’une petite partie du Web.

En plus, ils ne sont pas à jour immédiatement et il faut parfois attendre très longtemps (plusieurs jours) avant que les précieuses pages recherchées émergent. Et nous savons bien que cette apparition n’a rien de miraculeux … ce serait plutôt un business.

La pertinence selon les moteurs de recherche actuels

Elle dépend de :

  • Critères statistiques mais ne sont pas porteurs de sens
  • Des mots clés rencontrés, pas de la phrase
    • on ne tient pas compte des mots « creux »
    • on s’attache à toutes les occurences différentes des mots (non au groupe flexion)
    • on ne tient pas compte de l’ordre des mots
  • Position relative du mot dans la page, pas dans le texte
    • c’est un titre
    • il est dans le premier quart
  • Indice de popularité
    • c’est le « PageRank » de Google (voir la note en bas)
  • Méta-données
  • et bien sûr du facteur économique
    • Positionnement et référencement payant

Avec l’avénement du Web 2.0, on l’a bien vu, les outils de création de contenu se sont multipliés, ils sont devenus tellement plus faciles d’emploi … que le nombre de rédacteurs augmente plus vite que celui des lecteurs, déjà élevés par ailleurs. Bref, lorsqu’on cherche une information avec un moteur de recherche, on a de plus en plus de réponses. Globalement, l’ensemble des réponses est de plus en plus bruité … de moins en moins pertinent. Et si la loi de Cole était vraie !

Par exemple, considérons le bloging ce phénomène de société (même moi je m’y suis mis) dont les moteurs tiennent déjà le plus grand compte. Comme une forte tendance des blogs est de relayé les petits potins entre copins, une autre d’être plus des chambres d’écho des buzz du moment que des lieux d’une réelle création éditoriale, on sent bien que plus il y aura de Web 2.0 plus il y aura du bruit sur la toile ;-)

Tant que les moteurs de recherche seront sensibles aux statistiques, les agiteurs de la blogosphère qui n’ont rien à dire continueront de causer dans le poste ! et les moteurs seront dans le brouillard.

Emergence de nouvelles stratégies de recherche

Alors il faudra bien en sortir. Déjà des usages mutent. La prise de conscience du Web caché avait déjà eu pour incidence pour pousser les bonnes pratiques suivantes :

D’autres usages se développent. Par exemple, le social-bookmarking est une de ces pratiques. del.icio.us est le site paradigmatique de cette voie du favori pertinent. En offrant la possibilité de créer des réseaux de personnes, il augmente encore le caractère social de son dispositif. J’ai choisi de motoriser mon blog avec WordPress en lisant del.icio.us !

Un autre usage : la folksonomy. C’est un mot-valise issu de la contraction des mots folks ( »les gens » en français) et taxonomy ( »taxinomie » en français, la science du classement ou le système de classification hiérarchisés). Il s’agit d’une méthode de classification collaborative de contenus Web à l’aide de tags. Réalisée par une communauté d’internautes, son but est de proposer une alternative subjective et sensible aux moteurs automatiques pour faciliter la recherche et l’identification des contenus. Quelques exemples : Technorati pour classer les billets publiés sur les blogs, Flickr pour les photos et del.icio.us pour les favoris …

Et dans la vraie vie ?

Au bureau, je vois progressivement des collègues changer de page Internet par défaut. Ils avaient massivement opté pour Google … maintenant, on trouve del.icio.uc ou netvibes ou …

Et vous ?

Note : PageRank

Le PageRank est un terme anglais qui peut se traduire par « rang de page ». Cet indice de popularité, conçu par Larry Page, est calculé pour toute page Web et est utilisé par le moteur de recherche Google classer les résultats.

Note : Qui sont Larry Page et Sergey Brin ?

Larry Page (né en 1973) et Sergey Mikhaïlovitch Brin (né aussi en 1973) sont les fondateurs du site et du moteur de recherche Google. Le premier est américain, le second est d’origine russe.


Web 2.0 : Fin du consumérisme 1.0 ?

Les utilisateurs ne se contentent plus d’être des consommateurs. C’est une douce révolution mais c’est une révolution quand même. Voilà qu’ils

  • produisent
    • des contenus
    • des réseaux relationnels
    • des outils (tags, folksonomies) pour s’orienter dans cette masse de contenus
  • co-développent des outils informatiques,
  • s’entraident,
  • se conseillent,
  • s’évaluent,
  • créent des espaces
    • d’expression,
    • de jeux,
    • de travail aussi !

L’internet de l’information est en train de muter en internet de la relation. Il deviendrait le support de l’activité professionnelle, sociale et personnelle de l’individu ?


Hiérarchie de Maslow : Web 2.0, un Web plus motivant

La théorie de la hiérarchisation des besoins de Maslow permet d’expliquer la motivation par une pyramide des besoins constituée de cinq niveaux.

Par ordre de satisfaction des besoins, il y a d’abord trois niveaux inférieurs :

  • besoins physiologiques,
  • besoins de sécurité,
  • besoins sociaux

et deux niveaux supérieurs :

  • besoins d’estime,
  • besoins de réalisation de soi.

Pyramide de Maslow

Très utilisée en marketing (approche du positionnement des produits ou services), elle est aussi pertinente lorsqu’il s’agit d’analyser des pratiques et des usages. En segmentant la question initiale en cinq approches thématiques précises, il est plus facile d’analyser la motivation.

Si nous appliquons cette théorie aux différences entre le Web 1.0 et le Web 2.0, il me semble que c’est ce dernier qui ressort gagnant, en d’autres termes, qui est le plus motivant. Le Web 2.0 satisfait spécifiquement 3 besoins sur 5, ceux de niveaux supérieurs.

Besoins physiologiques

Le web ne répond pas à priori à ces besoins ;-)

Besoins de sécurité

Le web est un lieu où on se sent en sécurité. On se déplace partout dans le vaste monde virtuel sans sortir de chez soi !

Besoins sociaux

Le Web 2.0 a cet avantage sur le Web 1.0 d’offrir beaucoup plus de possibilités de sociabilité. Il favorise la création et l’appartenance à des communautés, les services d’échanges entre internautes, … Il permet à chacun de pouvoir participer aux forums, de donner son avis sur un article, … (Cf. la loi de Metcalfe et son corrolaire).

Besoins d’estime

Plus que le Web 1.0, le Web 2.0 permet à l’internaute de sortir de l’anonymat, de faire valoir ses réalisations. La course à l’audience sur le Web … vous savez le compteur en bas de page et tous ses avatars qui permettent de vérifier qu’on est lu et reconnu sur la toile. Le référencement « à la papa » est en train d’évoluer à tel point que cela inquiète même les institutionnels qui observent que de nouveaux pouvoirs émergent. Il se crée de nouveaux réseaux qui peuvent devenir vite très efficaces … vous pouvez aller par exemple du côté des buzz pour vous en convaincre. Ce besoin d’estime est décidément très Web 2.0.

Besoins de réalisation de soi

Avec le Web 2.0 l’internaute peut publier son blog, son wiki. Il peut aussi participer à des grands projets (encyclopédies, développements, …). Avec le Web 1.0, l’internaute n’était souvent qu’un spectateur, un consommateur.

Qui est Maslow ?

Abraham Maslow (1908-1970) est un psychologue américain d’origine russe. Il est essentiellement connu pour ses travaux sur les motivations de l’homme.


La loi de Reed : Réseau, web social

La loi de Reed affirme que la loi de Metcalfe minimise la valeur des connexions ajoutées. Non seulement un membre est relié au réseau entier comme à un tout, mais également à beaucoup de sous-ensembles significatifs du tout.

Ces sous-ensembles ajoutent de la valeur à l’individu comme au réseau lui-même. En incluant des sous-ensembles dans le calcul de la valeur du réseau, la valeur augmente plus rapidement qu’en se cantonnant à ne prendre en compte que les noeuds.

Cette loi est particulièrement adaptée aux réseaux où individus, communautés et groupes plus ou moins formels sont considérés. Elle permet de rendre compte du web 2.0 et plus particulièrement dans sa dynamique sociale.

Qui est Reed ?

Après des études au MIT, David Reed reçoit le grade docteur en sciences de l’informatique. Ses travaux de recherche sont nombreux : il a collaboré avec Lotus, IBM, Sofware Arts (création de Visicalc, le premier tableur sur PC). Il a aussi participé à la normalisation de TCPIP dans les années 70.


La loi de Metcalfe : Réseau, web social

L’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs

Cette loi a été souvent illustrée à l’aide de l’exemple des fax : un fax unique est inutile, deux fax sont utiles pour une relation, à chaque nouveau fax le nombre total de relations augmente du nombre de fax présent dans le réseau. La progression est donc celle des nombres triangulaires Sn = n(n-1)/2 et le rapport est bien d’ordre 2.

On comprendra aisément que la loi de Metcalfe soit particulièrement intéressante. Elle exprime la valeur ajoutée des réseaux : celle-ci croît quadratiquement avec le nombre de personnes connectées et mises en relation. C’est bien le nombre de liens, de relations possibles qui importe. Lorsqu’un réseau s’étend, sa valeur augmente encore plus !

Si on applique ceci aux communautés, la loi s’applique autant au sein des communautés qu’entre les communautés elles-mêmes. C’est ce qui a incité David Reed à formuler une loi complémentaire.

Qui est Metcalfe ?

Robert Metcalfe, né en 1946 à New York, a inventé au Xerox PARC le protocole Ethernet avec David Boggs en 1973. Il est le fondateur de la société 3Com en 1979.


  • Catégories

  • Calendrier

    novembre 2024
    L M M J V S D
    « Mai    
     123
    45678910
    11121314151617
    18192021222324
    252627282930  
  • Archives

  • Copyright © 1996-2010 Blogabriel. All rights reserved.
    iDream theme by Templates Next | Powered by WordPress