LePartisan.info

REVUES

Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

16.02.2026 à 17:00

AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques

Élodie Laine, Professeure en biologie computationnelle, Sorbonne Université
Julien Mozziconacci, Professeur en biologie computationelle, Muséum national d’histoire naturelle (MNHN)
Google vient de sortir un nouveau logiciel d’IA pour explorer les effets des mutations génétiques. Décryptage de deux spécialistes qui ne font pas partie de l’équipe.

Texte intégral (1434 mots)
Même une mutation génétique très simple -- une lettre qui change dans l’immense chaîne composée d’A, T, C et G -- peut avoir des conséquences sur la santé. Sangharsh Lohakare/Unsplash, CC BY

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.

Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.

AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.

Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.

AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.


À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle


Pourquoi cette avancée est importante

L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.

Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.

Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.

Quelles sont les suites de ces travaux ?

Plusieurs limitations tempèrent néanmoins l’enthousiasme.

Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.

Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.

De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.

Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.

Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.

Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?


Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.

Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

15.02.2026 à 17:02

L’espace au service du climat : comment exploiter l’extraordinaire masse de données fournies par les satellites ?

Carine Saüt, Cheffe de Service « Applications des missions Terre & Atmosphère », Centre national d’études spatiales (CNES)
La somme d’informations que nous transmettent les satellites est colossale. Le défi est donc de produire des données de qualité, utiles aux décideurs.

Texte intégral (2192 mots)
En scrutant pour nous la Terre depuis le ciel, les satellites nous permettent de suivre ses évolutions et de guider l’action environnementale. Ici, l’Everest vu depuis le ciel par un satellite Pléiades. Cnes/Distribution Airbus DS, Fourni par l'auteur

La somme d’informations que nous transmettent les satellites sur notre planète est colossale. Aujourd’hui, le défi est d’obtenir des données de meilleure qualité encore, et surtout de les faire parvenir jusqu’aux décideurs sous une forme utile et exploitable.


Depuis quarante ans, les données d’observation de la Terre se sont imposées comme l’un des outils les plus puissants pour mieux comprendre notre planète et suivre les effets de nos actions pour la préserver. Longtemps réservée aux chercheurs et aux agences spatiales, elle irrigue désormais l’action publique, l’économie et les aspects de politique de défense nationale. Mais cette richesse de données exceptionnelles reste largement sous-exploitée, notamment du côté des décideurs publics. Nous disposons d’un trésor dont nous ne tirons pas encore tout le potentiel pour éclairer les décisions ou accélérer la transition écologique.

Chaque jour, les satellites d’agences nationales, dont ceux opérés par le Centre national d’études spatiales (Cnes), ceux du programme européen Copernicus ou encore ceux des constellations commerciales observent la Terre. Ils produisent une somme gigantesque d’informations : températures de surface, concentrations de gaz, humidité des sols, couverture par la végétation, hauteur des vagues, courants marins… La liste est longue, il pleut littéralement de la donnée. La force de ces données ne réside pas seulement dans la quantité, mais surtout dans leur capacité à couvrir de façon homogène l’ensemble de la planète, y compris les zones les plus difficiles d’accès. L’espace se met donc au service de l’adaptation au changement climatique et les données d’observation de la terre deviennent un outil de décision pour mieux comprendre, agir et anticiper.

Représentation d’artiste de deux satellites en orbite autour de la Terre
Les satellites de la mission CO3D ont pour ambition de cartographier la surface de la Terre en 3D au mètre près. Une quantité de données impressionnantes pour guider la prise de décision. Cnes/Reactive Prod, Fourni par l'auteur

Les satellites offrent un niveau d’objectivité rare : ils observent tout, partout, sans être influencés par les frontières administratives ou les intérêts locaux. Alors que les données terrestres peuvent être fragmentées ou hétérogènes, les satellites offrent une mesure fiable, continue, homogène et donc comparable d’un pays à l’autre. Ensuite, les progrès technologiques ont permis des évolutions rapides : une résolution améliorée, une fréquence d’observation accrue, des capteurs de différentes natures. Autrefois on était seulement capable de prendre une photographie par mois, alors qu’aujourd’hui, la surveillance est quasi permanente. Depuis l’espace, nous obtenons une vision factuelle, indépendante et systématique du monde.

De nombreuses applications pour les données satellitaires

La donnée d’observation de la Terre soutient les politiques publiques en irriguant déjà une multitude de domaines. Concernant la sécurité alimentaire et la gestion des ressources en eaux, les satellites apportent des informations sur le stress hydrique pour anticiper des épisodes de sécheresse et ainsi mieux gérer les pratiques d’irrigation, mais également quant au suivi de la croissance des cultures ou pour estimer les rendements agricoles.

Ils aident également à gérer les risques naturels en fournissant une surveillance des zones à risque pour le suivi des incendies, notamment des mégafeux, ou des inondations. Ils permettent de dresser des cartographies entre avant et après les catastrophes naturelles pour aider l’intervention des secours et soutenir la reconstruction de l’écosystème endommagé. Le suivi par satellite permet également le suivi de la santé des arbres et de la déforestation, des zones côtières et de l’état des zones humides.

Vue aérienne de Venise et de la lagune environnante
Les données satellitaires permettent de suivre les événements climatiques extrêmes, notamment pour des zones à risque, comme Venise, ici photographiée par un des satellites Pléiades. Cnes/Distribution Airbus DS, Fourni par l'auteur

Enfin, l’observation depuis l’espace permet de mesurer les émissions de gaz à effet de serre. À l’heure actuelle, les inventaires nationaux, basés sur des modèles statistiques ou des estimations, sont trop lents pour réagir face à la rapidité de la crise climatique, puisqu’on constate un décalage de plusieurs années (entre deux à quatre ans) entre l’émission réelle et la donnée officielle. Dans un contexte où les décisions doivent être rapides, ce délai est problématique. En observant la composition de l’atmosphère, les satellites peuvent détecter les panaches de méthane et de CO2 quasiment en temps réel. Ils identifient ainsi des fuites ou des anomalies localisées qui échappent parfois totalement aux inventaires classiques.

D’autres acteurs peuvent bénéficier des informations issues des satellites, pour orienter les politiques publiques en termes d’aménagement du territoire, notamment par l’observation des îlots de chaleur urbains, la mesure de la qualité de l’air ou bien la planification d’actions de verdissements des zones et espaces urbains.

Après avoir produit de la donnée, réussir à la valoriser

Les données d’observation de la terre s’inscrivent donc dans plusieurs domaines en dotant les décideurs publics d’un outil transversal diagnostiquant notre planète de manière continue, précise et à des échelles locales, régionales ou mondiales. C’est là que se joue l’un des défis majeurs : rendre ces outils accessibles aux acteurs publics, aux élus, et aussi aux entreprises et aux citoyens. Les plates-formes de visualisation et les services d’analyse qui émergent aujourd’hui répondent à ce besoin en traduisant la complexité scientifique en informations compréhensibles, opérationnelles, et donc à terme en actions.

Cependant, malgré leur potentiel considérable ainsi que leur qualité et leur performance opérationnelle déjà démontrée, les données spatiales peinent à trouver leur place au sein des administrations et des entreprises. En effet, il s’agit d’un univers technique complexe. Les données brutes sont massives, spécialisées, souvent difficiles à interpréter. Leur analyse requiert des expertises précises : traitement d’images satellitaires, science des données, modélisation atmosphérique…

Nous observons donc un gouffre entre l’accès de plus en plus facilité aux données d’observation de la Terre et la capacité à les utiliser en toute confiance en l’intégrant dans les chaînes de prise de décisions. Même si la majorité des données est ouverte et gratuite, cela ne suffit pas. Il faut des plates-formes, des services, des outils visuels pour les rendre intelligibles, avec des interfaces pensées pour le suivi d’une application de politique publique. Les élus, à titre d’exemple, n’ont pas vocation à manipuler des gigaoctets de données, ils ont besoin de visualisations simples, d’indicateurs synthétiques, de cartographies claires. L’expertise doit précéder pour interpréter les données et les rendre véritablement utiles pour les décideurs.

Combiner les données dans des outils clairs et pratiques

Pour déverrouiller ces usages, plusieurs leviers se développent. Il s’agit, entre autres, de croiser des données de natures différentes. Cette combinaison permet de fournir des informations fondées sur les données d’observation de la Terre directement exploitables, plus fiables, plus interprétables et mieux contextualisées au besoin de l’utilisateur.

Les données d’observation de la Terre changent la donne en offrant la capacité de voir notre planète autrement. L’observation spatiale ne résoudra pas d’elle-même la crise climatique mais, combinée à d’autres sources de données, elle apporte quelque chose d’essentiel : une vision objective, continue, indépendante et globale de l’état de la planète. Ces informations sont devenues indispensables aux collectivités qui doivent désormais anticiper, et non seulement réagir.

Les données d’observation de la Terre permettent de mesurer plus vite, comprendre plus finement et décider plus efficacement, dès lors que l’information qui en découle est accessible, lisible et traduite en indicateurs exploitables. Notre rôle au Cnes est de valoriser ces données pour leur donner du sens et en faire un levier d’action. Parmi les applications les plus prometteuses et stratégiques liées à l’adaptation au changement climatique dans les politiques publiques, il ressort que l’enjeu n’est pas seulement de mesurer, mais de mesurer plus vite et plus précisément, pour mieux anticiper.

The Conversation

Carine Saüt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.02.2026 à 08:42

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

Raffaele F Ciriello, Senior Lecturer in Business Information Systems, University of Sydney
Kathryn Backholer, Co-Director, Global Centre for Preventive Health and Nutrition, Deakin University
Les chatbots sont utilisés pour demander conseil, réfléchir, décider. Insérer des annonces dans cet espace intime crée un risque inédit.

Texte intégral (2107 mots)
OpenAI affirme que des règles strictes encadreront l'intégration publicitaire mais l'histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

⬅️ 24 / 25 ➡️

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview