Aller à l'en-tête Aller au menu principal Aller au contenu Aller au pied de page
Accueil - Recherche - Les axes de recherche du CARISM - Quelles méthodes numériques pour l’analyse des médias?

Quelles méthodes numériques pour l’analyse des médias?

Quelles méthodes numériques pour l’analyse des médias?
Accordéons: 
Comment les méthodes numériques transforment la construction de nos objets d’études ?

Alors que les sciences sociales se sont construites sur la conception méthodologique des objets d’étude pour réduire la complexité du monde social (par la construction de corpus, par les logiques d’échantillonnage, de diversification des populations enquêtées, etc.), le numérique ouvre des corpus gigantesques. Cependant, la façon de construire et d’analyser les données récoltées oblige à s’interroger sur les conséquences politiques des choix méthodologiques. D’autant plus que ces données sont collectées, agrégées, délivrées selon des logiques qui, à la différence de nos méthodes “classiques”, ne relèvent que partiellement des sciences sociales et leur sont pour une grande part opaques. Ainsi, nous pencherons nous sur des questions ouvertes par l’essor des données : comment constituer des corpus adaptés à l’usage des différentes méthodes numériques; quelles transformations opérer pour rendre les données compatibles avec les outils mobilisés; dans quelle mesure les méthodes numériques envisagées conditionnent-elles les façons de récolter et de construire les données ?

Comment penser l'analyse des médias au croisement des méthodes ?

Le terrain propre au Carism (media studies) est particulièrement interrogé par ces données en masse, à la fois dans la construction des objets d'études et dans les méthodes mobilisées. Le numérique a démultiplié les contenus médiatiques disponibles, ce qui a déplacé l'attention des chercheurs sur ces nouveaux formats, bien que les variables disponibles soient fortement dépendantes de ce que les plateformes veulent bien laisser à disposition, notamment par le biais de leur API. Se pose plus globalement la question de la construction des corpus médiatiques : comment faire pour produire des variables permettant de répondre à nos objets de recherche ? D'autant plus que d'autres acteurs sont chargés de constituer des bases de données sur les productions médiatiques, en particulier l'INA et la BNF de par leurs obligations vis-à-vis du dépôt légal du web, ce qui pose la question de l'institutionnalisation de la collecte des données sur les médias, et des façons de récupérer, d'archiver, de cataloguer et de rendre accessible ces données aux chercheurs.

De plus, le numérique a bousculé les frontières entre les audiences et les producteurs et a permis de rendre visible des espaces d'échanges autour des contenus médiatiques que ce soit par le biais des avis, des commentaires, des réactions et de l'ensemble des conversations qui alimentent le débat public. Comment articuler l'étude des contenus médiatiques avec les espaces conversationnels qu’ils suscitent ? L'étude des ces productions tend à se focaliser sur des usagers très actifs, mais laisse dans l'ombre une majorité qui lit, consulte, mais ne produit pas forcément de contenus. Comment saisir ces participants à bas bruit ?

En parallèle, nous assistons à une inflation de la production de contenus en ligne, avec des formats de plus en plus complexes à analyser, depuis les premières études portant sur les échanges textuels sur le minitel, jusqu'aux travaux les plus récents sur les vidéos TikTok ou YouTube. Le renouvellement des méthodes d'analyse passe notamment par la conception d'outils permettant d'appliquer au son ou à la vidéo les méthodes déjà en pleine extension pour le texte. Comment adapter et réinventer les outils pour saisir ces nouveaux formats ?

Si on assiste à un essor considérable de nouveaux outils, les méthodes les plus traditionnelles restent également pertinentes pour étudier les médias et leur réception. D'autant plus que les méthodes numériques permettent d'équiper les recherches à la fois qualitatives et quantitatives, et nécessitent de faire appel à des formes de « bricolages méthodologiques », c’est-à-dire des agencements ingénieux entre différentes méthodes. Comment articuler l’usage des méthodes numériques avec l’ensemble des outils disponibles pour étudier les médias ? 

Comment prendre en considération les limites légales et éthiques dans l’usage de ces méthodes numériques ?

Enfin, les méthodes numériques renouvellent également les interrogations sur le traitement et l’analyse des données personnelles, autant dans le cas de collecte à la main ou sur de grands jeux de données. Internet a été souvent présenté comme un espace en clair-obscur, qui interroge les limites entre le privé et le public, et qui s’inscrit dans des problématiques d’insertion des espaces numériques dans différents cadres législatifs, nationaux ou internationaux. Les différentes évolutions législatives (dont la mise en place du RGPD depuis 2018) nous poussent à repenser la façon de concevoir le rapport éthique à la recherche. Comment préserver le droit à la vie privée des individus dans l’usage de grands volumes de données extraits du web ? Comment gérer le stockage et la conservation de ces données sur le long terme ? Comment sécuriser ces données et isoler les données identifiantes ?

L’essor du numérique n’a pas seulement renouvelé les objets d’étude, mais également les méthodes disponibles au sein des sciences humaines et sociales. Si on associe aisément les méthodes numériques à des approches quantitatives sur de grands jeux de données, ce serait oublier à quel point le numérique a également transformé les techniques qualitatives d’analyse. Cette question propose de s’interroger sur les transformations portées par le numérique dans les différentes façons d’équiper la recherche : ce qui peut aller autant des logiciels de codage d’image pour faire de l’analyse qualitative de contenu, qu’à des outils d’analyse textuelle automatique à grande échelle ou des analyses quantitatives par machine learning. Trois questions en particulier méritent d’être adressées.

Alors que les sciences sociales se sont construites sur la conception méthodologique des objets d’étude pour réduire la complexité du monde social (par la construction de corpus, par les logiques d’échantillonnage, de diversification des populations enquêtées, etc.), le numérique ouvre des corpus gigantesques. Cependant, la façon de construire et d’analyser les données récoltées oblige à s’interroger sur les conséquences politiques des choix méthodologiques. D’autant plus que ces données sont collectées, agrégées, délivrées selon des logiques qui, à la différence de nos méthodes “classiques”, ne relèvent que partiellement des sciences sociales et leur sont pour une grande part opaques. Ainsi, nous pencherons nous sur des questions ouvertes par l’essor des données : comment constituer des corpus adaptés à l’usage des différentes méthodes numériques; quelles transformations opérer pour rendre les données compatibles avec les outils mobilisés; dans quelle mesure les méthodes numériques envisagées conditionnent-elles les façons de récolter et de construire les données ?

Le terrain propre au Carism (media studies) est particulièrement interrogé par ces données en masse, à la fois dans la construction des objets d'études et dans les méthodes mobilisées. Le numérique a démultiplié les contenus médiatiques disponibles, ce qui a déplacé l'attention des chercheurs sur ces nouveaux formats, bien que les variables disponibles soient fortement dépendantes de ce que les plateformes veulent bien laisser à disposition, notamment par le biais de leur API. Se pose plus globalement la question de la construction des corpus médiatiques : comment faire pour produire des variables permettant de répondre à nos objets de recherche ? D'autant plus que d'autres acteurs sont chargés de constituer des bases de données sur les productions médiatiques, en particulier l'INA et la BNF de par leurs obligations vis-à-vis du dépôt légal du web, ce qui pose la question de l'institutionnalisation de la collecte des données sur les médias, et des façons de récupérer, d'archiver, de cataloguer et de rendre accessible ces données aux chercheurs.

De plus, le numérique a bousculé les frontières entre les audiences et les producteurs et a permis de rendre visible des espaces d'échanges autour des contenus médiatiques que ce soit par le biais des avis, des commentaires, des réactions et de l'ensemble des conversations qui alimentent le débat public. Comment articuler l'étude des contenus médiatiques avec les espaces conversationnels qu’ils suscitent ? L'étude des ces productions tend à se focaliser sur des usagers très actifs, mais laisse dans l'ombre une majorité qui lit, consulte, mais ne produit pas forcément de contenus. Comment saisir ces participants à bas bruit ?

En parallèle, nous assistons à une inflation de la production de contenus en ligne, avec des formats de plus en plus complexes à analyser, depuis les premières études portant sur les échanges textuels sur le minitel, jusqu'aux travaux les plus récents sur les vidéos TikTok ou YouTube. Le renouvellement des méthodes d'analyse passe notamment par la conception d'outils permettant d'appliquer au son ou à la vidéo les méthodes déjà en pleine extension pour le texte. Comment adapter et réinventer les outils pour saisir ces nouveaux formats ?

Si on assiste à un essor considérable de nouveaux outils, les méthodes les plus traditionnelles restent également pertinentes pour étudier les médias et leur réception. D'autant plus que les méthodes numériques permettent d'équiper les recherches à la fois qualitatives et quantitatives, et nécessitent de faire appel à des formes de « bricolages méthodologiques », c’est-à-dire des agencements ingénieux entre différentes méthodes. Comment articuler l’usage des méthodes numériques avec l’ensemble des outils disponibles pour étudier les médias ? 

Enfin, les méthodes numériques renouvellent également les interrogations sur le traitement et l’analyse des données personnelles, autant dans le cas de collecte à la main ou sur de grands jeux de données. Internet a été souvent présenté comme un espace en clair-obscur, qui interroge les limites entre le privé et le public, et qui s’inscrit dans des problématiques d’insertion des espaces numériques dans différents cadres législatifs, nationaux ou internationaux. Les différentes évolutions législatives (dont la mise en place du RGPD depuis 2018) nous poussent à repenser la façon de concevoir le rapport éthique à la recherche. Comment préserver le droit à la vie privée des individus dans l’usage de grands volumes de données extraits du web ? Comment gérer le stockage et la conservation de ces données sur le long terme ? Comment sécuriser ces données et isoler les données identifiantes ?