Spécialiste de la théorie économique, Johannes Hörner a rejoint TSE en septembre 2016 depuis l’Université de Yale par le biais d’une chaire AXA, attiré par la vie toulousaine, le projet TSE et son unique environnement. Nous lui avons posé des questions sur son article en cours de publication dans le Quarterly Journal of Economics, co-écrit avec Yeon-Koo Che sur la mise en place optimale d'apprentissage social, ou comment organiser des systèmes qui soient plus efficaces pour la communauté, même s’ils le sont moins pour certains individus.
Quelle était l’idée à l’origine de cet article ?
J’ai rencontré Yeon-Koo Che (Université de Columbia) à Yale en 2014 quand il est venu en visite. C’est un spécialiste des systèmes de recommandations et j’ai beaucoup travaillé sur l'expérimentation. De nos discussions est venue l’idée qu’il pourrait être intéressant de jeter un oeil aux aspects d'apprentissage social des systèmes de recommandation, notamment pour les plateformes en ligne.
Nous savons que les systèmes de recommandation tels que Google, Pandora ou Waze, ont besoin de beaucoup d’informations pour améliorer leurs résultats. Il leur faut estimer, grâce aux retours des utilisateurs, si un site est pertinent ou si un nouvel album de musique est réussi. Ce besoin d’informations les incitent à modifier leurs recommandations pour certains utilisateurs afin d'affiner leur système pour l’ensemble des usagers. Nous voulions comprendre comment ces deux optimums différents, au niveau collectif ou au niveau individuel s’équilibrent.
Quelles sont les différentes stratégies des systèmes de recommandations ?
Cela dépend beaucoup du marché en question et du type de recommandations. Une façon de contourner ce problème est de s’appuyer, quand c’est possible, sur d’autres sources d’informations, comme des avis d’experts par exemple. Pandora demandent ainsi à des musicologues de libeller chaque nouveau titre en fonction de son rythme, thème, instrumentation, etc. Ces données permettent au site d’être plus performant sur les recommandations de musiques qui viennent de sortir sans avoir à forcer ses utilisateurs à donner leur avis. Michelin, par exemple, s’appuie uniquement sur les goûts d’experts pour émettre leurs recommandations.
Cependant, dans beaucoup de cas, les experts ne peuvent pas être utilisés et la stratégie idéale est alors d’envoyer des recommandations modifiées à un petit nombre d’utilisateurs afin d’obtenir des informations. Par exemple, Waze a intérêt à envoyer un conducteur sur une route pour laquelle le service n’a pas d’information, même si celle-ci est bloquée ou ralentie. Le GPS de cet utilisateur permettra à Waze de connaître en temps réel l’état de cette route et ainsi de proposer de meilleures recommandations aux autres usagers.
Quels problématiques pose cette stratégie ?
Il y a deux principaux problèmes avec cette stratégie. Tout d’abord, cela signifie que certains utilisateurs vont recevoir, parfois, des recommandations peu pertinentes afin que l’ensemble des utilisateurs puissent bénéficier des informations ainsi obtenues. C’est un cas classique en économie pour lequel les entreprises devraient fournir des incitations aux individus qui se retrouvent avec des recommandations moins pertinentes.
Le deuxième problème c’est que les utilisateurs risquent de s’apercevoir qu’ils reçoivent de mauvaise recommandations. Dans l’exemple de Waze, l’utilisateur pourrait savoir que la route suggérée par Waze est plus lente et décider donc de ne pas suivre cette recommandation. Cela réduit la confiance que l’utilisateur porte au service. Encore pire, les utilisateurs peuvent réaliser qu’il servent parfois de cobayes et alors décider, pour chaque recommandation reçue, s’il s’agit d’une bonne recommandation ou d’un test.
Nous avons essayé de comprendre ce qui arrive quand Pandora ou Waze savent que leurs utilisateurs ne doivent pas découvrir qu’ils sont utilisées comme cobayes. Ils essaient donc de ne pas envoyer d’information trop éloignée d’une vraie recommandation pour ne pas effrayer l’utilisateur. Nous voulions savoir jusqu’où les entreprises pouvaient aller sans perdre la confiance de leurs utilisateurs.
Quelles sont les principales conclusions de l’article ?
L’une des principales conclusions c’est que les entreprises devraient plus sérieusement réfléchir aux incitations lorsqu’elles mettent en place leur stratégie de recommandation. Un autre constat clair c’est que la capacité qu’ont les services à utiliser leurs utilisateurs pour obtenir des informations dépend beaucoup de leur crédibilité. Plus celle-ci est importante auprès des utilisateurs (et, le plus souvent, plus leurs recommandations sont pertinentes) plus les utilisateurs sont tolérants vis à vis de recommandations modifiées. Enfin, nous montrons que la crédibilité de ces services est proportionnelle à la connaissance qu’ont les utilisateurs d’être utilisés pour obtenir des informations et à leur capacité à obtenir des informations sans s’appuyer sur leurs utilisateurs. Il serait par ailleurs très intéressant d’analyser dans le futur la manière dont les recommandations de ces plateformes peuvent parfois être contre productives, par exemple lorsque Waze propose à tous ses utilisateurs de contourner une route et crée donc une nouvelle congestion.