#3 Anaëlle Martin
Docteur en droit, Comité national pilote d'éthique du numérique (CNPEN)
Docteur en droit, Comité national pilote d'éthique du numérique (CNPEN)
Arnaud : Bonsoir Anaëlle. Anaëlle: Bonsoir. Arnaud : Étienne, comme on est super pro on a dit rappelle toi que c'est toi qui fait le début. Etienne : Ah bon? Alors bonsoir Anaëlle peux-tu te présenter s'il te plait. Anaëlle : Bonsoir à tous donc merci de m'avoir invité. Je suis Anaëlle Martin, alors de formation, juriste. J'ai soutenu ma thèse en 2020. En novembre 2020 si ma mémoire est bonne et je me suis assez vite, après ma thèse, dirigée vers l'éthique du numérique. Et actuellement, je travaille au CNPEN, au Comité national pilote éthique du numérique en tant que rédactrice. Et donc, je suis assez familière des enjeux et des enjeux juridiques et éthiques du numérique, notamment l'intelligence artificielle. Mais, pas que, plus généralement, l'éthique du numérique. Voilà. Donc je ne sais pas si je dois peut-être plus détailler ma formation, mais...Pas forcément. Arnaud : C'est impeccable. Mais comment, est-ce que tu peux nous raconter un peu comment tu t'es retrouvé à faire des études de droit d'une part, et à faire naître, approcher du numérique après des trajectoires personnelles quoi. Anaëlle : Oui, alors donc à la base, je suis vraiment juriste, ça veut dire que j'ai pas du tout fait une thèse en lien avec l'intelligence artificielle. C'était vraiment du droit, du droit public. Donc je suis publiciste spécialisé en droit de l'Union européenne, donc droit supranational, droit public surtout droit européen. Alors droit de l'Union européenne, mais aussi un petit peu de droits fondamentaux dans le Conseil de l'Europe et dans le droit de l'Union européenne, moi, j'avais plutôt une orientation économique, donc tout ce qui était droit du marché, puisque l'Europe, c'est un marché qui n'est pas une fédération, c'est plus le marché commun, le marché intérieur. Et ma thèse portait donc, c'était un sujet assez institutionnel, ça portait sur le principe de subsidiarité, donc on ne voyait aucun lien avec avec le numérique. Néanmoins, je me suis toujours intéressé à ces questions. Et lors de mon doctorat, lorsque j'étais doctorante, j'ai participé à des séminaires. Je me suis inscrite à pas mal de... un cycle de conférences on va dire, dans lequel il était question de l'intelligence artificielle, les enjeux éthiques de l'IA. Et suite à ça, j'ai complété, on va dire, mes connaissances qui étaient assez théoriques. Je les ai complétées en faisant une formation, donc une vraie formation à l'Aivancity School, qui m'a permis d'approfondir tout ce qui est enjeux éthiques et un peu juridiques de l'intelligence artificielle. Donc en fait, mon parcours, c'est pur juriste, je suis vraiment que dans le droit à la base. Mais pendant mon doctorat, je m'étais un petit peu intéressée à l'IA. Beaucoup en fait. Ça, ça m'a beaucoup intéressé, mais c'était plus un intérêt vraiment personnel. J'envisageais pas vraiment quelque chose de professionnel. Et puis finalement, c'est, j'ai eu l'opportunité, l'opportunité de travailler au CNPEN Comité national d'éthique du numérique en tant que rédactrice, et ça m'a permis de côtoyer de façon quotidienne les questions de l'éthique du numérique. Voilà un parcours peut-être. Je n'ai pas fait du droit du numérique à la base et je me suis intéressé petit à petit. Arnaud : Merci c'est vraiment plus clair. Etienne t'es un peu immergé j'ai l'impression dans ces sujets d'IA depuis un an. Est-ce que tu pourrais nous raconter ce que tu constates et ce que tu vois et les enjeux juridiques que ça pose quoi pour. Étienne : Alors là oui. Pour résumer, moi je fais pas mal comme tu dis, complètement par hasard, je me suis retrouvé un peu plongé là-dedans et ce qui est intéressant, j'ai fait pas mal de ce qu'on appelle des ateliers ou des workshop avec des étudiants, donc des étudiants en école de design et en art. Je dois être au peut- être septième ou huitième. Là, le workshop, c'est vraiment une semaine, trois jours entre trois jours et une semaine de travaux avec des étudiants. Donc j'ai commencé en fait l'année dernière en février. Et puis j'en ai fait pas mal, surtout à partir de septembre. Et donc c'est intéressant de voir avec ces nouveaux outils d'intelligence artificielle générative. Donc ils vont générer des textes du son ou de l'image. C'est ça génératif. La manière dont ces étudiants vont l'appréhender puisqu'eux, ils n'ont pas le choix. C'est là, qu'il y a toute une guéguerre en ce moment avec les illustrateurs. A raison, il n'y a pas de souci. Donc on va peut-être en parler après. Donc nous, moi, ce que je vois très très vite, c'est ce que je leur montre. Et puis après on va rebondir dessus, c'est les biais algorithmiques dont tu en parlais là, dans ton article, là, qui était vraiment passionnant, mais très très vite, ça se voit en deux secondes dès que vous dites et ils essayent de le corriger, on va pouvoir en parler ça aussi, puisqu'on voit que moi, par exemple, au début avec Dall-e, j'ai demandé montre-moi des gens de confiance. Il m'a montré que des hommes de 50 ans avec des grosses mâchoires et des dents blanches. Voilà. Et puis trois semaines plus tard, j'ai dit j'ai demandé la même chose, ce qui est intéressant. Et là, tout d'un coup, j'ai vu une fois sur deux une femme asiatique ou une femme noire en plus de ces hommes de 50 ans. Je me suis un peu renseigné. Et puis j'ai vu qu'en fait, dans ce qu'on appelle le pront, la phrase qui décrit ton texte pour générer l'image, en fait ils rajoutent asian and black woman ils trichent sur le pront que tu écris, donc ils essayent, c'est à dire que Dall-e a vu le retour des utilisateurs du grand public en disant qu'est-ce que c'est que cette histoire? Quand je demande quelle est la plus belle femme du monde, c'était toujours Claudia Schiffer. En gros, voilà. Rarement une femme asiatique ce que tu veux en fait. Et puis donc maintenant, en fait, on s'est aperçu qu'il commençait à tricher. C'est à dire que quand tu commences à dire certaines choses, ben en fait les résultats sont un peu plus variés, mais visiblement ça nous semble très artificiel. Et pareil, je le disais avant l'émission, j'ai des étudiantes chinoises, là je leur ai montré et elles m'ont montré les IA qu'elles utilisent génératives d'images. Et c'était intéressant parce que quand tu dis montre-moi quelqu'un d'exotique, elles vont plutôt montrer un européen, alors que quand tu dis montre-moi un homme ou une femme, eh ben il va montrer une personne asiatique, ce qui est normal puisque le data set est fait sur la culture, on va dire asiatique. Donc ça c'est assez passionnant. Et puis donc ça, ça se voit très très vite, les biais algorithmiques. Pareil, moi je peux en parler des heures, mais les femmes ont souvent un décolleté, les femmes sont plutôt ont des formes généreuses, mais les hommes pareil. Je travaille sur un projet lié à l'antiquité. C'est impossible de faire des sculptures grecques non bodybuildés qui sont tous, on dirait des héros de Marvel et c'est vraiment compliqué. Je suis obligé toujours de décrire mon truc, quelqu'un de fin, de voire de maigre pour avoir un corps à peu près normal. Et vraiment, c'est, on joue avec, beaucoup. Donc ça c'est une première chose et je pense que c'est intéressant parce que le data set est fait, je crois que tu le disais dans ton article, c'est fait par des Californiens pour caricaturer la base de données. Alors quand je parle des IA génératives, moi je parle de MidJourney, surtout de Dall-e. Et puis Stable diffusion c'est les trois grands IA génératives actuelles qu'on utilise et en plus se rajoute la censure. C'est-à-dire que là par exemple sur Midjourney tu peux plus utiliser en français le mot derrière, derrière la porte ça marche pas parce que derrière peut dire autre chose en français. Voilà, les légumes je t'en parle pas. Voilà, donc on est en train de jouer sur un mode un peu curieux où on passe d'une langue à l'autre, c'est-à-dire qu'on passe du polonais à l'anglais, au français parce que tel mot tiens derrière n'est pas censuré. Back, heureusement, n'est pas censuré en anglais. Et puis un autre mot et donc on se retrouve dans un dans quelque chose d'assez curieux. Donc on jongle entre la censure et les biais algorithmiques. Là voilà, je voulais savoir toi ce que t'en pensais et là ton article on mettra le lien là, qui est vraiment très bien dans une conversation où tu essayes de montrer les enjeux et surtout la manière de réguler ça. Mais en tout cas, quand on, si vous essayez différents types d'IA générative de différentes cultures, donc en gros c'est asiatique ou nord américain, vous allez voir des différences qui sont assez flagrantes tout de suite, on le voit. Anaëlle : Oui, oui, c'est très très intéressant. Et d'ailleurs c'est tout à fait logique puisque les IA sont, ça dépend du cadre de référence, Donc c'est en fait forcément lorsqu'on parle de ces modèles qui sont biaisés. En fait, la source des biais à la base, c'est dans le monde, dans le monde réel. Et effectivement, dans nos sociétés occidentales, on va avoir une surreprésentation de certaines catégories de personnes. Donc c'est dans le monde, on va dire dans le monde sociotechnique dans lequel l'IA va prendre sa source, on va récolter des données qui vont déjà être biaisées. Donc, si on veut voir la source d'où ça vient, ce problème de sur représentation ou au contraire un manque de repères, de représentations de certaines personnes. La réponse est assez simple, ça vient de notre propre monde, le monde réel qui est dominé par des rapports, des inégalités sociales, des enjeux, des rapports de pouvoir et des personnes qui sont plus représentées que d'autres. Par exemple, on sait que les hommes sont plus représentés que les femmes, que les populations blanches sont plus représentées que les populations noires, en tout cas dans les sociétés, dans nos sociétés. Donc, quand on parlait de euh, de Californiens qui créent leur modèle, c'est normal de mettre leur propre biais. Et si on est en Chine une personne exotique ne sera pas une personne chinoise, forcément ce sera plutôt une personne californienne. Donc c'est ça dépend du cadre de référence. Et ce qui est intéressant lorsqu'on parle de biais, c'est que c'est toujours par rapport à quelque chose. Quand on dit que c'est biaisé, c'est biaisé par rapport à quelque chose. Et moi je pense que ces questions m'ont beaucoup intéressé parce que quand on parle de biais en machine learning, c'est souvent synonyme de discrimination. En fait, je sais pas si vous êtes d'accord, mais on utilise ça comme un synonyme biais discrimination. [00:11:14] Oui oui oui oui oui oui oui. [00:11:17] Et ça, ça m'avait un petit peu marqué parce que je me suis dit mais est ce que tous les biais vont produire des discriminations? Est-ce que toute discrimination à son origine, c'est un biais, et en fait non. Je me suis intéressée à la communauté des statisticiens, des mathématiciens statisticiens et eux, ils travaillent sur ces sujets depuis fort longtemps. Ils ont pas attendu le machine learning et le buzz autour de l'IA. Et en fait c'est des questions d'estimations, la notion de biais elle est bien connue dans ces communautés de chercheurs et en machine learning en IA, ça peut avoir une autre signification. Le biais ça peut vraiment être la discrimination. Et c'est vrai que lorsqu'on parle de bah par exemple de système de reconnaissance faciale par exemple, on a vu il y a quelques années que ces systèmes avaient tendance à moins bien reconnaître les peaux foncées que les peaux blanches. Et ces systèmes sont donc biaisés. Ça crée donc des discriminations puisque une personne, une personne noire, aura moins de chance d'être reconnue par ce système qu'une personne blanche. Et voilà donc des biais en fait qui sont issus, pour revenir à ce que je disais, ils viennent du monde sociotechnique. Les biais prennent leur source dans notre monde qui est en fait un monde dans lequel on a des inégalités sociales, etc. Et les systèmes d'IA vont les reproduire. Et ce qui est gênant, c'est qu'ils vont souvent les amplifier. Gaëlle: Juste pardon excusez-moi, tu pourrais reprendre le nom de la personne qui avait fait l’expérience dont on parlait juste au début. Anaëlle: Joy, Bo...Winnie. Gaëlle : Joy Buolamwini Anaëlle : Oui oui, je l'avais au début et puis ça m'a échappé. Gaëlle : Qui a fait cette expérience justement. On voit une petite vidéo ou alors elle a son visage devant une reconnaissance faciale et la reconnaissance ne voit rien du tout. Et elle a mis un tout simplement un masque tout blanc en plus, rien de très sophistiqué et là son visage est reconnu. Anaëlle : c'est ça. Et d'ailleurs, le documentaire doit être à l'heure actuelle encore sur Netflix. Moi ça fait quelque temps que je l'ai vu, je crois qu'il y a encore que j'ai pas vérifié, mais en fait, de façon très très simple, on peut comprendre la question des biais dans un système de reconnaissance faciale. Etienne : J'ai eu une discussion avec une mathématicienne, c'est Claire Mathieu qui est spécialiste des algorithmes là dans une émission. Et c'est marrant parce qu'elle disait mais oui, mais tout est biaisé de toute façon. Comme tu dis, t'es toujours un biais par rapport à un autre, un autre monde. Et c'est vrai que là, le jeu au niveau européen, là, actuellement, moi je suis très étonné par Stable diffusion qui est en open source. Les Midjourney et Dall-e sont des boîtes noires, c'est à dire qu'on ne connaît pas le data set, on ne connaît pas leur culture. Moi j'aimerais bien savoir les livres Dall-e, enfin Chat GPT, donc dit "J'ai lu 470 millions de livres", mais on n'a pas la liste. Donc ça, c'est problématique. Je sais que les IA chinoises, on ne sait pas si c'est vrai ou pas. Ils disent ils ont lu 4 milliards de livres. Voilà. Donc bien sûr, c'est toujours de la compétition, mais on a pas cette liste. Donc ça c'est vraiment très embêtant. Même plus, et c'est vrai que je ne sais pas si c'est ce que tu proposais, mais moi je serais d'avis à vraiment forcer ses IA à montrer leurs data justement pour mieux comprendre les biais et pour en avoir conscience. Parce que moi le premier, je suis toi. Je suis un homme de 55 ans qui vit à Paris, donc j'ai mes biais. Voilà. Et tous on a des biais différents, mais d'en avoir conscience et d'essayer de naviguer là dedans en toute conscience. Alors que chat GPT3 par exemple, en donnant qu'une seule réponse en plus on a l'impression que c'est la vérité et ça c'est super dangereux je trouve. Ils te donnent pas plusieurs solutions, pas plusieurs réponses alors que d'autres le playground de GPT3 pour ce qui regarde en fait il permet d'avoir plusieurs réponses, ça qui fait comme les IA génératives d'images. Il propose quatre cinq images en même temps et donc après c'est à toi de choisir. Un peu comme Google qui va vous donner plusieurs réponses. Et c'est vrai que le fait de donner qu'une seule réponse est assez perturbant. C'est assez satisfaisant parce qu'on a l'impression de dialoguer avec un humain presque au bout d'un moment. Et puis alors que voilà, ce sont des images, enfin des images. Moi je suis dans les images, mais des textes statistiques uniquement liés sur des data sets qui peuvent avoir leur propre biais. Truc assez marrant pour moi, chat GPT je le considère comme un centriste de droite dans ce qu'il raconte. J'ai vu aux Etats-Unis on l'accusait d'être woke. Mais c'est drôle parce que c'est drôle, parce que tu vois. Ah ben oui, d'accord, les autres étaient des gens d'extrême droite américains qui disent c'est une honte ce truc woke. Pour moi, ce n'est pas péjoratif woke au contraire. Mais tu vois, c'est rigolo parce que ça m'a fait rire, parce que ça m'a fait rire. Ah bah oui, d'accord, personne n'est d'accord, t'façon c'est un truc qu'il faudrait forcément saisir. Enfin, je ne sais pas ce que t'en penses au niveau de l'Europe, puisque ce dataset c'est une manière de représenter le monde, c'est la représentation du monde qu'ont ces IA et donc c'est super important de connaître quelle est sa base, tu vois, Et ça c'est un truc qui devrait être. Enfin je ne sais pas mo,i je suis pas juriste du tout, mais est ce que c'est possible de forcer ou de mettre des bonnes pratiques en disant voilà si vous voulez, comme l'Europe pousse les GAFAM à faire ça pour Facebook, si vous voulez accéder à notre territoire, en fait vous devez respecter toute une suite de prérogatives ou je ne sais pas. C'est pas des lois mais des bonnes pratiques. En fait, je ne sais pas ce que tu en penses et est-ce que c'est possible aussi? Anaëlle : Oui, merci pour la question et puis les remarques qui sont très intéressantes. Alors alors déjà pour ça, ça permet de préciser aussi ma première réponse puisque je disais la source des biais c'est dans le monde, puisque le monde est déjà en soi et il contient des biais, des discriminations, des inégalités sociales. Mais les biais en fait se trouvent vraiment à toutes les étapes du cycle de production des systèmes d'IA. Ça veut dire que très souvent on se focalise sur les données, on dit oui, les données sont biaisées. Il y a un problème dans les données, mais en fait, le problème, il est partout et il faut en avoir conscience. Ça veut dire que dans la collecte des données, dans les échantillons, oui dans la collecte des données, les données elles mêmes, les biais sont inhérents aux données elles mêmes, d'accord, mais les biais apparaissent également dans les étapes suivantes, notamment lors de la construction de l'algorithme, lorsque les data scientists vont faire des choix. Et en fait, ils font des choix pour encoder certaines variables lorsqu'ils vont également peuvent faire des, ils peuvent avoir des biais dans l'évaluation, dans l'omission de certaines variables, il y a en fait des choix. On a l'impression que tout est automatisé, que tout est assez neutre. Mais non, il y a à chaque étape des choix qui sont faits et là aussi, ce sont des occasions lors desquelles on va par des biais qui vont se glisser. Et il n'y a pas que la question des données et c'est vraiment à chaque, c'est tout au long du cycle de vie de ces systèmes marchand artificiel à chaque étape. Et il faut en avoir conscience. Et c'est là que le droit intervient effectivement, puisqu'il va imposer un certain nombre d'obligations. On ne va pas laisser ces jeunes Californiens décider des décisions de ces systèmes qui peuvent être ultra biaisés, donc on va imposer tout un tas d'obligations. Alors dans l'éthique de l'IA, dans l'éthique de l'IA, on a des principes comme la transparence par exemple la transparence. Le fait aussi de pouvoir expliquer les décisions, l'explicabilité. Parce qu'on a des boîtes noires finalement, même si les boîtes noires datent pas de l'IA, on connaît, on connaît le fonctionnement des boîtes noires depuis un certain temps, mais ça s'est aggravé avec ces nouveaux outils d'intelligence artificielle. Et le droit, il est pertinent parce qu'il va imposer un certain nombre d'obligations. Et lorsqu'on parle d'équité, là, le premier principe qui nous vient à l'esprit, c'est le principe de non-discrimination. Gaëlle: Oui, excusez-moi, mais est-ce que tu pourrais donner des exemples un tout petit peu plus précis, des exemples, plutôt à nous donner de ce que peut faire le droit, demander concrètement le droit dans la loi? Parce que là tu parles d'explicabilité boîte noire. Mais quelques petits exemples qui pourraient nous éclairer concrètement sur... Anaëlle: Surtout que les juristes ne sont pas du tout familiers de ces questions de boîte noire, etc. Alors comment dire les principes qui sont les plus pertinents, ça va être donc les droits fondamentaux, le principe d'égalité ou le principe de non-discrimination. Et là il faut distinguer puisque alors le, comment dire, le droit anti-discrimination, on le trouve aussi bien en France dans le droit national que dans le droit supranational, le droit européen, le droit de l'Union européenne notamment, mais également le Conseil de l'Europe. Le droit de l'Union européenne, il a peut-être une portée plus contraignante, donc c'est plus intéressant de regarder de ce côté-là. Et ce qui est intéressant en fait avec les systèmes d'IA, c'est que ils peuvent donc avoir des biais, ils peuvent donc discriminer certaines personnes ou certaines catégories de personnes, par exemple dans le cas des systèmes de recours facial. Typiquement les femmes noires, donc une certaine catégorie de personnes qui sont doublement discriminées du fait de leur genre et du fait de leur origine ethnique. Et là on a un corpus intéressant, c'est qu'on a des principes comme la non-discrimination qui vont s'imposer, et ces principes existent depuis longtemps, mais ils peuvent également être transposé dans les discriminations algorithmiques. Et la question c'est est-ce que nous, par exemple, les juristes, on sait qu'il y a des discriminations directes et des discriminations indirectes. Et les discriminations directes, ce sont celles qui vont être le plus souvent volontaires, délibérées et qui vont se fonder explicitement sur des critères interdits, comme le fait que, bah voilà, on va traiter différemment certaines personnes parce que ou du fait en raison de certaines caractéristiques qui sont interdites, donc comme le sexe ou le genre, l'origine, l'origine ethnique, l'orientation politique, l'orientation sexuelle, l'appartenance à un syndicat, la religion, un handicap, une caractéristique physique, une religion prétendue ou réelle, peu importe, ces critères là sont interdits. On ne peut pas discriminer sur ces critères. Il y a des discriminations qui sont légitimes, qui sont totalement tolérées par le droit et qui sont même nécessaires lorsqu'on est un recruteur et qu'on va typiquement, vous avez pris le cas lorsqu'on a beaucoup de candidats, eh bien, on va discriminer, mais c'est normal, mais on va avoir des critères qui vont être, euh, on va dire, le plus objectif possible. On regarde les notes du candidat, on regarde son parcours. Ça, ce sont des critères légitimes. Les systèmes d'IA avec la question des boîtes noires, on sait pas trop quels sont leurs leurs critères, sur quoi ils se fondent. Et parfois ces systèmes là se fondent sur des critères un peu surprenants, avec tout un jeu de corrélations établies par ce système que nous on n'arrive pas à saisir, à comprendre même. Et la question est, est ce que ça va renforcer les inégalités sociales qui sont déjà présentes? Et la question est oui, effectivement, on s'est rendu compte que ces systèmes là avaient tendance à discriminer. On parlait de systèmes de reconnaissance faciale, mais là c'est plus pertinent de parler des, par exemple, des systèmes d'aide à la décision dans le domaine du recrutement par exemple. Les algorithmes qui vont aider les recruteurs à sélectionner le candidat le plus intéressant pour eux. On s'est rendu compte que là encore, il y avait des discriminations puisqu'il y avait des biais. Et on avait tendance à toujours à avoir des candidats aux profils très similaires. Au détriment donc d'autres catégories, d'autres groupes, d'autres groupes sociaux. Donc très souvent, ça favorise plutôt les hommes blancs plutôt que plutôt que les femmes, et plutôt que les les personnes qui appartiennent à, on va dire, à des à des catégories plus vulnérables et qui sont déjà protégées par le droit. Gaëlle : Donc là, en fait, ça veut dire que les personnes qui vont créer des IA vont avoir un cahier des charges avec des lois à respecter. Alors je vais poser une question très très naïve de novice sur les IA, mais à partir de quel moment on considère que c'est une IA et qu'il faut donc se plier à ces lois là? Est-ce que la question est pertinente ou pas? Je ne sais pas. Anaëlle : Oui, bien sûr, très pertinente. On a eu beaucoup de débats là-dessus justement. Et tout l'enjeu, c'est la question du champ d'application du règlement. Donc, pour recontextualiser, l'Europe, l'Union européenne va d'ici quelques mois sortir un règlement. Donc, c'est le règlement sur l'IA, règlement sur l'intelligence artificielle qui va fixer en fait un cadre législatif harmonisé au niveau européen. Et toute la question, c'est de savoir qu'est-ce qui va tomber dans son champ d'application. Et c'est la définition finalement de l'IA. Qu'est-ce que c'est? Alors, il y a eu pas mal de débats, il y en a toujours puisque ce n'est pas définitif. C'est encore à l'état de projet mais je ne l'ai pas en tête. Mais vous pouvez l'avoir dans, vous pouvez voir dans... Ce sont les premiers articles du règlement sur IA, donc qui s’appelle également l' IA Act qui est bien connu. Et la définition de l'IA va faire la façon dont on définit. l'IA va déterminer donc le champ d'application de ce règlement et les systèmes, les systèmes d'IA qui vont tomber dans ce champ d'application devront être soumis à toutes ces obligations juridiques puisque, contrairement à bien d'autres textes, ce règlement sur l'IA a une portée contraignante. Il a vocation à avoir une portée contraignante, c'est-à-dire une portée juridique obligatoire. Ça veut dire que si les concepteurs ne respectent pas ses obligations ils seront sanctionnés, il y aura des amendes, etc. Ce qui n'est pas le cas toujours dans l'éthique de l'IA, avec des principes qui n'ont pas de portée obligatoire. En fait, c'est surtout des déclarations de principes qui sont assez abstraits. On les suit, on les suit pas sans qu'il y ait vraiment de réelles conséquences. Là, ça va changer les choses. Arnaud : C'est une bonne nouvelle. Anaëlle: Oui plutôt. Etienne : Pour préciser par exemple moi j'ai vu cet été là ce que tu dis c'est très intéressant. Il y a le data set qui est d'une façon biaisé parce que c'est une culture, on va dire, qui était la culture californienne qu'on connaît bien. Parce que quand tu publies des applications pour Apple ou Google, tu dois soumettre des applications, par exemple à Apple. Et ce sont des tabous nord américains, c'est à dire qu'ils n'ont pas les mêmes tabous que nous sur la violence et les corps nus. Donc ça, c'est une habitude, tu vois moi ça fait déja douze ans maintenant qu'on publie des applications et en fait, les seuls problèmes qu'on a, c'est plutôt sur le tabac, tu vois, ou corps nus. On travaille pour les enfants, il n'y a pas de problème de corps nus, mais par contre la violence il y a aucun problème. Tu peux mettre des explosions thermonucléaire pour enfants de moins de sept ans, il n'y a pas de problème. Par contre si tout d'un coup t'as un Scherlock Holmes avec une pipe éteinte dans un coin, c'est censuré. Bref. Donc ça c'est intéressant parce que justement au début on avait du mal à comprendre les tenants et les aboutissants, pourquoi cette application était bloquée, pourquoi, comment? Bref. Donc c'est intéressant parce que nous on est européens mais on est soumis à des lois. C'est pas des lois, mais en tout cas des visions du monde on va dire nord américaines et aussi pour les tu disais, là, dans les algorithmes et c'est ça qui est intéressant, c'est que ce sont des choix humains derrière. Donc je disais sur la censure, mais même cet été, je comprenais pas. À un moment donné j'étais avec une graphiste et je crois que c'était avec Stable Diffusion. On avait toujours des fruits, on disait je sais pas quoi mais on avait toujours des fruits, on comprenait pas et en fait on avait fait une faute d'orthographe dans le mot et on s'était aperçu que si tu faisais une faute d'orthographe, ils ne connaissaient pas le mot, donc par défaut ils mettaient des fruits. Donc ça c'est un choix humain. Et Stable diffusion euh non sur Mid journey, actuellement si tu mets rien, tu as un portrait de femme par défaut, si on en prend pas. J'ai fait plein de tests, tu fais n'importe quoi. Comme il est très fort pour faire les portraits, techniquement il est très fort. Ils ont dit bon allez, on va mettre if, il fait rien et envoie un portrait de femme. Mais ça c'est intéressant parce que tu vois qu'il y a une décision humaine derrière. Il y a eu sûrement des réunions pour ça en disant tac tac tac, voilà ce qui se passe. Ça en fait ça par défaut. En fait, ça c'est vraiment des choix humains. Et puis il y a aussi quelque chose d'intéressant. C'est presque une chance les IA qui arrivent parce que tu disais ça va accentuer les, malheureusement, les discriminations, c'est ça, en fait, ça amplifie notre monde. Moi je le vois comme ça, c'est en plus surtout que c'est un monde numérique, c'est à dire que ces IA ont absorbé que notre monde numérique donc c'est, imaginez, s'ils d'absorbaient tout iStock, Twitter et Facebook. C'est une vision du monde qui peut faire assez, assez peur. Mais c'est vrai. En plus, moi c'est ce que je dis à mes étudiants. Je dis imaginez, elle ne voit notre monde, elle ou il ou je ne sais pas quoi que à travers le prisme du numérique. Donc elle connaît pas la vie en fait. Et et par contre c'est intéressant parce que si on arrive à forcer, l'Europe. Je parle de l'Europe et c'est très utopique, mais à forcer une vision du monde. Si en Europe on se met d'accord sur certaines choses, une certaine vision du monde, on peut l'appliquer aux IA aux algorithmes et justement à ce que ces IA soit, comment dire, en relation, en bonne harmonie avec notre vision du monde. C'est très très utopique, mais qui n'est pas californienne, ni chinoise, ni africaine ce qu'on veut. Et je trouve que c'est pour se mettre d'accord. Ça va être compliqué en Afrique, en Afrique, n'importe quoi. Parce que je pensais au continent africain qui est sous le cercle, Il existe pas en fait. Tu vois, j'ai fait des recherches avec les IA sur l'Afrique, l'Afrique, tu ne trouves presque rien, t'as des noirs américains, beaucoup de références normales à la culture nord américaine, mais par contre sur l'Afrique il n'y a rien. l'Inde et l'Afrique alors que tu vois l'Inde, c'est énorme, il y a presque rien. Alors je pense que c'est sur chat GPT 3 et puis sur Dall-e, il y a très très peu de choses sur l'Afrique et l'Inde. Je revenais à ça. C'est ça, c'est d'arriver à trouver une manière de structurer ces IA des bonnes pratiques pour que ça soit en adéquation avec notre vision du monde, sans la censurer aussi. C'est ça c'est toujours ça le danger, puisque actuellement là c'est la censure. Je me dis, n'importe quel mot est censuré, ça devient presque ridicule à un moment donné. Notre vocabulaire là il va finir à 50 sur les IA, ça va être compliqué. Donc je ne sais pas si c'est totalement utopique ou est-ce que c'est dans l'idée pour l'Europe de dire voilà. Anaëlle: Ben justement, c'est peut être utopique, mais c'est l'ambition de l'Europe de se donner une réglementation qui va permettre de faire en sorte qu'on ait une IA en Europe, on va dire une IA made in Europe, c'est à dire qui va respecter les valeurs européennes, les valeurs qui sont consacrées en droit de l'Union européenne dans la Charte des droits fondamentaux, mais qu'on retrouve au niveau du Conseil de l'Europe et dans la et dans les constitutions de tous les États membres de l'Union européenne. Des principes fondamentaux comme la dignité humaine, l'égalité entre les hommes et les femmes. Le pluralisme, la liberté d'expression vous parliez de censure la liberté d'expression qui n'est pas négociable. On n'est pas dans un état, on n'est pas. Alors donc en fait, finalement, on veut une IA made in Europe qui se distinguerait à la fois d'une IA américaine et d'une IA chinoise. C'est un peu les deux concurrents de l'Europe vous disiez L'Inde et l'Afrique ne sont pas dans la course. En revanche, on a d'autres Léviathan qui sont dans la course. C'est d'ailleurs la Chine et d'ailleurs la Chine qui a sorti beaucoup de texte sur même sur l'éthique de l'IA alors qu'on sait que c'est plutôt en Chine qu'on trouve des systèmes d'IA qui sont un peu effrayants. Les systèmes de scoring, tout un tas de systèmes aussi de reconnaissance spatiale qui sont pour nous aussi pas négociables, qui puissent être légaux en Europe, que toute ambition du futur règlement sur l'IA, de faire en sorte qu'on ait eu des IA qui soient respectueuses des droits fondamentaux, qui respectent les valeurs européennes, celles que j'ai citées à l'instant et donc qui vont se distinguer de ce qui peut se faire ailleurs dans le monde. Donc oui, c'est utopique, mais je pense que c'est notre ambition et il faut qu'on fasse tout pour qu'on ait des systèmes d'IA qui soient respectueux de ces deux, de ces principes qui font un peu l'ADN de l'Europe. Arnaud: Anaëlle, là tu parles beaucoup de l'étape centrale d'opérations sur comment, comment on les élève, comment on les oriente. Mais il y a deux autres sujets avant et après sur lesquels j'aimerais bien avoir ton avis. C'est comment on fait avant le pillage des droits d'auteur? En fait, il y a beaucoup d'artistes aujourd'hui qui sont vent debout parce que leurs œuvres se sont fait complètement volées et ils ne sont pas d'accord. Ils elles ne sont pas d'accord pour que leurs œuvres soient réutilisées. Comment on contraint et comment on contraint des structures qui sont en droit américain? Et ensuite, il y a un autre aspect qui est, quelle est la personnalité juridique de ces IA? Et les œuvres créées appartiennent à qui? Si elles appartiennent à quelqu'un, on se dirige vers quoi? Sur l'avant et sur l'après? Anaëlle: Très intéressant. Alors propriété intellectuelle, moi je ne suis pas du tout spécialisé. J'ai des amis qui travaillent sur ces questions brûlantes. Il y a beaucoup de litiges. J'ai vu, je me tiens un petit peu au courant des... régulièrement. on a des artistes effectivement qui dénoncent le pillage de leurs œuvres, de leurs travaux. Et ça c'est sûr que c'est quelque chose qui est, qui devrait pas être toléré et qui devrait être un droit, devrait réguler tout ça pour faire en sorte d'interdire. La question est en pratique comment on fait? Je sais pas. Je pense qu'il faut effectivement intervenir juridiquement parce que c'est pas. Alors certains disent que enfin, on peut défendre également le fait que pourquoi pas? Ces systèmes d'IA peuvent se nourrir de l'œuvre de ces artistes. C'est un débat qu'il faut déjà, un débat qu'il faut avoir. Mais ensuite je pense que ce serait pertinent que le droit intervienne. Moi, je ne suis pas spécialiste de ces sujets là, mais effectivement, c'est un gros, c'est c'est une, c'est une question qui doit être posée et qu'il va falloir régler assez vite je pense. Mais je ne peux pas vous dire, je peux pas vous donner plus d'éléments de ce côté-là. En revanche, sur la deuxième partie de votre question, donc la personnalité juridique, ces systèmes d'IA, n'ont absolument pas de personnalité juridique. En revanche, il y a encore une fois des débats là-dessus. Donc, le Parlement a émis une résolution il y a quelques années, sur une proposition de conférer la personnalité électronique à des robots, à des systèmes d'IA qui sont, euh, qui sont susceptibles de commettre des dommages. C'est la question de la responsabilité finalement, qui est ce qui est responsable lorsqu'on va avoir des décisions injustes, discriminatoires, biaisées, voire carrément dangereuses pour la sécurité et la santé humaine? Si on admet qu'il va y avoir des systèmes d'IA à haut risque en circulation. Alors moi, je pense que c'est pas pour demain, la personnalité juridique, ça reste. Enfin, le droit reste assez conservateur de ce côté-là. La plupart des juristes trouvent que ce n'est pas du tout pertinent de conférer une personnalité à ces machines. Bien qu'elle simule le comportement humain bien qu'elles peuvent avoir potentiellement des effets préjudiciables pour les personnes physiques. Je pense que la responsabilité ne doit pas reposer sur ces machines, mais sur les concepteurs, les utilisateurs, les, toutes les personnes qui sont impliquées dans la chaîne de décision. Décision qui donc peut avoir des effets négatifs sur les personnes. D'autant plus que là, on parle, enfin on parlait d'image et de droit d'auteur. Mais il y a les IA qui interviennent dans le domaine médical. Oui, j'ai justement vu, un petit bout de texte sur le site du Comité national d'éthique. Ou il parlait de comment faire en sorte que, au niveau du diagnostic médical, les enjeux de l'IA éthique à ce niveau là, quoi. Anaëlle : Oui, oui, oui. Et dans le domaine de la santé, dans le domaine médical, effectivement, c'est là où il y a peut-être, on le voit avec le plus d'acuité les potentiels dommages que peuvent causer ces systèmes d'IA. Alors ils ne visent pas à se substituer aux médecins. Le médecin reste. Il reste maître. Néanmoins, on peut imaginer qu'ils peuvent les induire en erreur. Donc effectivement, on a la question du dommage, la responsabilité et également d'ailleurs les questions de biais de discrimination, puisqu'on n'est pas à l'abri que ces systèmes là soient biaisés, qu'ils. Qu'ils aient plus de difficultés à diagnostiquer, à reconnaître des maladies chez certaines catégories de la population. Encore une fois, les femmes ou certaines personnes qui appartiennent à des, à des groupes ethniques. Donc là encore, la question des biais qu'on doit relier à la question de la responsabilité, etc. Et ce sont des vraies questions. Etienne: Je sais qu'en lisant un peu les documentations, là, depuis un an, c'est ces groupes là. Donc, Daily Opinion et Journée Company veulent surtout pas être responsable des images qu'on va produire, c'est à dire qui disent attention, c'est votre responsabilité. C'est un peu comme les GAFAM qui veulent ou Facebook qui ne veut pas être éditeur. Ils veulent juste en gros un facteur, ils veulent pas être responsable du contenu parce que là il y aurait trop de problème. Donc c'est intéressant parce qu'ils disent non, non, l'image est à vous, c'est vraiment on vous donne le bébé et ils ont pas du tout cette volonté de dire les droits d'auteur. Non non, ils vous font payer du temps de calcul et ils vont avoir leur business qui va se développer autour. Mais c'est intéressant parce que quand je regardais au début les les mentions légales, en fait ils disaient Non, non, surtout c'est à vous. Par contre, vous êtes les seuls responsables. Si tout d'un coup l'IA vous fait une image absolument immonde et que vous la publiez, c'est votre responsabilité. Ils se dégageaient totalement de ça. Et on voyait cette frayeur justement avec la censure dans tous les sens. Il y a quelqu'un. Je ne sais pas si vous le voyez. Moi je vois quelqu'un poser une question. Voilà, donc ça t'as répondu. Je crois que l'Europe n'est pas la seule à légiférer dessus. Les États-Unis, la Chine doivent légiférer par contre après, est-ce que légiférer autour de l'IA pourrait engendrer un désintéressement des sociétés étrangères pour le développement de l'IA en Europe? Anaëlle: Oui, Alors c'est toujours le fameux débat entre si la réglementation est trop contraignante, on va pas tant les sociétés étrangères que nos sociétés à nous, nos champions européens, on va les, on va les leur mettre des bâtons dans les roues. Et y a il y a des problèmes, notamment dans... au plan. Là, on est plus sur le plan économique que sur les droits fondamentaux. En fait, c'est un petit peu, il faut concilier tout ça. Il faut qu'on réglemente pour que les systèmes d'IA ne soient pas à haut risque qui ne soient pas susceptibles de causer des préjudices aux personnes physiques. Mais d'un autre côté, il ne faut pas non plus qu'on soit trop contraignant et qu'on stoppe l'innovation et que finalement on se fasse tous dépasser par et bien par des IA américaines, chinoises ou russes, etc. Donc c'est effectivement c'est le risque. Il ne faut pas non plus, il faut avoir à l'esprit l'innovation, l'aspect économique aussi de tout ça. Donc c'est très difficile. En fait, il faut concilier tout un tas de paramètres, c'est pas juste, c'est le droit. Encore une fois, l'enjeu est différent que les textes dépourvus de portée contraignante. Lorsqu'on parle d'éthique de l'IA, il faut bien distinguer est ce que c'est du droit dur, du droit ou de la soft law? Du droit mou qui n'aura pas beaucoup de conséquences. En fait, là, on va être sur quelque chose de contraignant donc il faut faire très attention, ne pas être trop contraignant.e Gaëlle : Et justement, quand, alors peut-être, autre question un peu novice, mais quand vous élaborez, vous travaillez sur ces lois, comment vous faites pour tenir compte de ces aspects économiques, innovation est-ce que vous faites intervenir, il y a un groupe de travail avec des grands acteurs, des entreprises où c'est complètement déconnecté. Anaëlle : Alors les comités d'éthique, eux, n'ont pas de comment dire, ne prennent aucune mesure contraignantes. On est, on est vraiment pas dans, il faut vraiment distinguer l'éthique du droit pour le coup, parce que c'est ce que je disais tout à l'heure, l'éthique, ce sont des simples, entre guillemets, c'est utile, mais ce sont des simples recommandations, des préconisations qui vont peut être éclairer les, le législateur, les décideurs à tous les niveaux, que ce soit au niveau européen, national. Donc ça, c'est l'éthique, le droit portée contraignante, là, c'est dans les, on va dire, c'est autre part. Donc, quand on parle du l'AI Act du règlement sur l'IA, c'est à Bruxelles, c'est...C'est voilà le Conseil, le Parlement, Parlement européen, la Commission qui vont ce triangle institutionnel, qui vont faire leur, comment dire leur cuisine. Et ça c'est leur droit, les comités n'interviennent pas dans le processus législatif. Donc, c'est vraiment deux choses différentes, l'éthique de l'IA, l'éthique des comités et le droit dur, la législation qui se fait au niveau de ces institutions là, qu'elle soit nationale ou européenne. Etienne : En fait, dans la question il y avait deux choses. Ce que tu as dit, c'est. Moi j'avais discuté avec des scientifiques qui étaient très jaloux du Fair use qu'ont les ingénieurs et les mathématiciens américains, c'est-à-dire qu'ils ont le droit pour de la recherche d'aller piller tout ce qu'ils veulent. Je crois qu'en droit européen, il y a quand même quelque chose d'un peu équivalent je crois, qui permet de pour de la recherche, d'aller voir, d'aller absorber des bases de données X ou Y. Ça, c'était une chose. Puis il y a aussi en même temps, je pense que ça va devenir un business, là, parce que là, pour l'instant, c'est un peu gratuit et c'est un peu la fête, là, pour les grand public, mais là ils vont trouver un modèle économique et de façon l'Europe est un marché énorme, donc pour eux c'est comme Google et Facebook, ils vont devoir se plier comme ça. Une anecdote moi j'étais aux États-Unis là, le mois dernier, j'ai discuté avec des Américains qui regardaient justement sur les IA, on discutait, on regarde ce que veulent faire l'Europe puisque visiblement on est réputés pour être les plus énervés contre les GAFAM. Ils disaient ben tiens, c'est intéressant, ils disaient et on verra ce qu'on fait nous, après dans cet ordre. Et puis aussi autre chose, je me suis pas mal, c'était aux CES, les asiatiques, les IA n'étaient que pour de la surveillance. C'est ce que tu disais tout à l'heure, mais vraiment que ça c'était du délire. C'est-à-dire que j'ai fait plein de petits stands, c'était de la reconnaissance faciale. Mais pareil, automatiquement, si dans un aéroport, on s'est parlé pendant deux minutes, on détecte qu'on a été amis même si on s'est séparés après, si on s'est donné quelque chose que basé là-dessus. Et alors marrant par contre les coréens c'était sur la nourriture, sur les IA qui arrivent à détecter ce que tu manges, savoir si c'est bon pour ton corps, c'est là qu'on détecte les légumes. Donc c'était intéressant suivant les cultures tu vois. En gros c'était les chinois qui étaient qui étaient pour caricaturer, mais sur la base vraiment de la surveillance lourde. Voilà, c'était intéressant de voir la manière dont les IA étaient approchées, en tout cas mis en valeur parce que je pense que tout le monde travaille dans plein de domaines. Mais mais là, tout d'un coup, ils mettent en valeur la surveillance. L'autre, c'était la nourriture et tout ce qui était bien pour ton corps en fait. Donc une sorte d'analyse en temps réel, mais vraiment bien espionné. Si on voulait savoir ce que tu mangeais, analyser ton sang et tout, et on faisait des études statistiques. Et les Américains ont été beaucoup sur les voitures automatiques, mais c'était le CES donc c'était électronique. Mais c'était intéressant de voir ça, les différentes approches web au niveau culturel, pour eux, les IA, c'est quoi? Nous je pense qu'on a beaucoup vu Terminator et les Américains aussi. Ça fait très peur, tu vois. Et je ne suis pas sûr que les asiatiques ont la même relation avec les IA que nous, mais ça serait intéressant, oui. Anaëlle : Et puis c'était vraiment le gouvernement aussi. Je suis pas sûre que la population chinoise soit fan. Etienne : C'est ça qui serait intéressant. Anaëlle: Une espèce d'espionnage. Etienne : De discuter avec eux. Ah ben oui c'est Black Mirror hein, c'est vraiment marrant. Anaëlle : Mais moi j'avais vu même sur des choses très innocentes comme par exemple moi je suis dans le droit animalier, donc je m'étais intéressée à des applications pour retrouver son chien ou son chat si jamais on le perd. Et je sais qu'en Chine ils sont assez fans de ces applications-là, mais même avec ces petits systèmes là, tout innocents pour retrouver son toutou, ils arrivent. Le gouvernement chinois arrive en fait à faire des choses, faire de l'espionnage et puis voilà, il arrive toujours à collecter des infos. Arnaud: En tout cas Gaëlle il y a pas de problème t'as ton chat. Gaëlle : Salut ! Arnaud : Etienne, dans les travaux que tu fais avec les étudiants. On en a parlé plusieurs fois. Tu décris deux réactions, les jeunes entre guillemets parce qu'ils sont tous jeunes, mais il y a les très jeunes qui sont enthousiasmés et les vieux qui paniquent quoi. Etienne : Oui oui, en résumé, c'est intéressant quand je montre les IA, alors maintenant ça y est ils connaissent. Mais il y a encore six mois, ce n'était pas très connu et quand je montrais ça à des illustrateurs, donc ceux qui ont 18 ans, qui sortent du bac et qui ont sont en première année trouvent l'outil incroyable. Ils disent c'est génial, Je peux faire ce style et tout. Alors ceux qui ont 25 ans, qui ont quatre ou cinq ans de travail d'étude, ils disent ah oui, la réflexion à chaque fois c'est c'est chaud, c'est chaud pour nous quand même. Ben oui, parce que moi je sais que cette image qui est générée par une IA qui me l'a généré en 20 secondes, moi c'est une semaine de travail, tu vois? Donc tout d'un coup ils ont ce rapport. Il y a un prof avait rajouté très bien et dix ans d'expérience. C'est dire qu'en plus la qualité du dessin, surtout quand tu fais du manga ou de l'héroïc fantasy qui sont des dessins très très techniques et tout d'un coup tu es dépassé. Donc il y avait ces deux, cette ambivalence, c'est à dire que les très jeunes qui prenaient ça comme un, voilà un nouvel outil, une nouvelle possibilité, puis les plus âgés qui étaient vraiment qui, eux, n'avaient pas le problème de droits d'auteurs, ça, c'est pas leur problème. Ce sont les plus âgés qui, ceux qui ont vraiment 20 ans ou dix ans d'expérience, qui là sont beaucoup plus, se posent beaucoup des questions sur mais d'où viennent ces images, comment elles ont été volées, pillées ou analysées alors que les autres c'est plutôt mais qu'est ce que je vais faire? Ces IA vont plus vite que moi, sont presque gratuites et dessinent mieux que moi. Tu vois, c'était vraiment ça. Les workshop servent à dédramatiser tout ça et à trouver des, et c'est pas si facile. En gros, c'est pas parce que, c'est pas magique les IA, même si ça va s'améliorer. Mais c'est intéressant. Mais c'est ça les réactions, c'est suivant les âges. Moi je vois ça, vraiment très jeune, c'est génial, 25 ans c'est wow, c'est chaud quand même parce que j'arrive sur le marché du travail, puis tout d'un coup je vais en concurrence directe. Et puis les plus vieux, c'est sur le droit d'auteur. Alors pas tous, mais beaucoup dans l'illustration, parce que c'est vrai que c'est très bluffant et c'est vraiment extrêmement bluffant. Oui, vas-y. Gaëlle : Je vais dire, chez certains, je discute. Je discutais notamment avec un concept artiste qui est en train de se lancer et il y a une véritable fin, pas un stress. Etienne : Mais concept artiste c'est chaud. Oui, ça c'est vrai, eux ils sont en première ligne. Concept artiste, character designer. Ce qu'on appelle ces créateurs de personnages ou même storyboarder, beaucoup dans les agences de com. Moi j'ai vu, ils s'en servent beaucoup pour faire des storyboard, c'est-à-dire très très vite. Toi tu veux un décor comme ça, puis tu changes à la volée. Et c'est vrai que c'est ces métiers là de vraiment d'illustration. Tu vois moi je fais ça encore à la main, même si c'est une souris, une tablette, mais c'est un métier qui est long en fait, assez long de faire ces images tout d'un coup là, tu es dépassé, là, il n'y a pas de soucis, surtout quand on te demande des images qui sont un peu clichés pour la publicité ou les choses comme ça. Tu vois quand on voit une affiche de cinéma, je prends toujours l'exemple des affiches de cinéma françaises qui sont honteuse, c'est à dire que c'est des clichés, c'est à dire que au premier coup d'œil, tu sais que si c'est une comédie, si c'est un film d'action, si c'est un truc romantique, et là les IA le reproduisent sans problème, il n'y a pas de soucis, Des trucs beaucoup plus particuliers, ça c'est autre chose. Mais mais c'est vrai que il y a toute une grosse partie du travail comme ça et justement moi je fais mes petits workshop en essayant de voir comment analyser ça, comprendre ça, trouver des solutions. Alors on commence à en trouver, mais c'est pas évident pour eux. Il y a là comme tu dis des concepts artistes, ça ou dans le jeu vidéo aussi, ça va être quand même ou c'est à la fois génial parce que des petits studios vont pouvoir accéder à des productions beaucoup plus, comment dire, qui demandent beaucoup plus de moyens. Parce que quand tu voulais, quand tu veux faire 200 personnages, à un moment donné faut les dessiner. Là t'as une IA qui peut te faire des variations en 3 h autant que tu veux, ça ne veut pas dire que le jeu est bien fait. Attention c'est que de la pure production. Mais c'est vrai que ça va bouleverser énormément de choses. Et on en parlait tout à l'heure, là, sur la pédagogie aussi. Ça c'est un truc qui va complètement bouleverser tout, parce que maintenant un devoir écrit à la maison n'a plus plus de valeur en fait, voilà, il y a des systèmes de mesure contre mesure, mais ça sera toujours comme avec les hackers, les hackers ont toujours. Arnaud : Une longueur d'avance. Etienne : Une longueur d'avance, alors au bon sens et au mauvais sens du terme. Donc de toute façon ça sera toujours le jeu du chat et de la souris. En plus, ça va devenir un jeu pour les étudiants j'imagine d'arriver à tromper des trucs et ça c'est... Anaëlle : Et alors, plutôt que d'opposer, donc d'essayer de les contrer et on tombe dans cette guéguerre, est-ce que tu pourrais envisager d'intégrer ces outils, par exemple renouveler la façon dont les artistes vont maintenant créer est-ce que eux-même peuvent utiliser et tirer bénéfice finalement de ces nouveaux systèmes, plutôt que d'être dans un dans une position un peu conservatrice et s'opposer parce que finalement on va avoir du mal, même si le droit intervient, même si il y aura de la régulation. Je pense que on n'arrête pas le progrès. Et est-ce que finalement il n'y aurait pas un intérêt pour ces artistes à se saisir de ces nouveaux dossiers, à se saisir de ces nouveaux outils pour en tirer avantage plutôt que d'essayer de s'y opposer. Je sais pas. Etienne : Mais moi c'est ce que j'essaie de faire. Je sais qu'avec les étudiants, c'est ce qu'on essaye de montrer et d'ailleurs on y arrive parce qu'au bout de trois jours, quatre jours, ils ont compris quelle était leur vraie position et leur valeur ajoutée par rapport à l'image. Et tout d'un coup. Mais c'est une autre anecdote. J'avais une jeune illustratrice qui me disait génial, je vais pouvoir faire des foules, faire des foules, c'est compliqué, c'est long. Et là tout d'un coup, j'ai toujours rêvé de faire une bande dessinée avec des foules immenses. Je vais pouvoir le faire et c'est ce que tu dis. Et il s'avère très très dur de contrer, de s'opposer frontalement parce que bon, puisque voilà, ça va être toujours compliqué. Déjà il y a des IA moi mon petit ordinateur, là il a une petite IA en local, j'ai mes petites images qui sont déjà en local, donc ça part dans tous les sens très très vite. Et c'est plutôt à trouver des nouvelles manières de travailler, des nouvelles manières de gérer ça et pareil. Alors ça c'est beaucoup plus loin. Mais le problème, le problème, le droit d'auteur qui est quand même assez récent, je crois que ça a 200 ans en France, c'est quelque chose assez récent, c'est est-ce qui ne va pas évoluer, tu vois. Est ce que tout d'un coup ça ne va pas tomber dans le domaine public? Je ne suis pas du tout juriste, mais je vois une évolution, peut-être du travail d'un artiste qui va plutôt, parce qu'on ne peut pas protéger un style. Le style n'est pas protégeable, on ne peut pas breveter un style, mais par contre on pourrait commencer à avoir des outils qui disent bon voilà, t'es un artiste avec un style très particulier, on va l'entraîner avec une IA et toi tu vas à la Spotify revendre ton style. Enfin, d'autres personnes vont pouvoir utiliser ton style, mais tu vas retoucher, toucher des royalties ou d'une manière ou d'une autre un peu d'argent là dessus. Ça, c'était une solution. Là, j'ai vu des sociétés qui commencent à penser ça. Alors, est-ce que c'est utopique ou pas? Mais en tout cas, voilà, il faut l'utiliser et peut-être changer aussi que mon petit dessin entre guillemets, avec tout le respect que j'ai avec les dessinateurs, est-ce que tout d'un coup ça passe pas dans le domaine... Enfin je sais pas là, honnêtement, moi je sais, c'est très ouvert là, mais même dans ma tête, tu vois, c'est pas encore structuré. Est ce que tout passe en domaine public ou en creative common ça va dans les communs? Et mais après, faut que ces gens retrouvent une manière de gagner un peu d'argent parce que sinon... Arnaud : Oui je pense que c'est ça la question de fond. C'est en fait, au delà des questions sur l'usage, l'appropriation pédagogique. La question c'est comment les artistes gagnent leur vie. Et il y a, on est sur une logique depuis, comme tu l'as dit, 200 ans de droit d'auteur et donc d'un artiste qui va vivre des retombées économiques d'une enclosure créative. Et à un moment on met une production créative, on la met un peu sous cloche ou on la protège par le droit pour qu'elle se mette à générer de l'argent. Et si on se rend compte qu'on peut technologiquement lui créer des clones qui eux mêmes ne génère pas d'argent pour l'artiste, en fait de quoi l'artiste vit? Je trouve que la difficulté c'est que si on essaie de rester dans cette logique d'enclosures on va, ça va être le jeu du chat et de la souris. Et puis en fait, les artistes on vont s'épuiser contre des structures beaucoup plus puissantes, à essayer de récupérer des petits sous. Ça ressemble beaucoup je trouve, à ce qu'ont vécu les photographes dans les années 80. Le passage du numérique où tout à coup des gens qui étaient persuadés d'être assis sur des tas d'ekta, les photos, qu'ils avaient pris toute leur vie, ils se sont rendu compte qu'ils s'étaient ruinés. Parce qu'en fait, le moindre photographe numérique arrivé depuis deux ans avait, le même patrimoine photo qu'eux. C'est en fait, c'est un peu aussi ce qu'ont vécu les chauffeurs de taxis quand les Uber sont arrivés, tout à coup, leur retraite s'écroulait quoi. Et je trouve que le problème, c'est les systèmes de plateformes derrière l'économie numérique féodale qui bénéficie à la fois uniquement aux entreprises. C'est les gagnants des plateformes, c'est les plateformes, c'est jamais les usagers. Et je trouve que le problème il est là et les artistes se retrouvent à essayer de faire respecter un droit. Et en fait, à l'origine, peut-être à l'origine du problème, est-ce qu'on ne devrait pas réfléchir avant d'essayer de forcer des entreprises qui ne respecteront pas la loi, les forcer à reverser de l'argent aux artistes comme les musiciens avec Deezer en fait, et d'essayer de grappiller des miettes? Est-ce qu'on ne devrait pas trouver une autre manière de rémunérer les artistes, de rémunérer la création et la production qui ne sont pas forcément la même chose? Est-ce qu'il y a des voies là dessus Anaëlle? Des choses, une exploration un peu fondamentale, juridique sur comment on rémunère. Anaëlle: Alors moi, je, encore une fois, je ne suis pas privatrice de la propriété intellectuelle, c'est vraiment pas mon domaine, même si c'est passionnant et je regrette aujourd'hui de ne pas m'être intéressée davantage. Mais j'ai des amis qui sont là dedans, et notamment un, je pense, qui serait très compétent pour parler de ces sujets. Donc je pourrais, je pourrais vous mettre en contact parce que c'est effectivement c'est des questions qui sont d'actualité et sur lesquelles travaillent les juristes en ce moment. Oui, je pense qu'il faut essayer d'envisager plusieurs façons de penser cette révolution puisque c'est une révolution qui est en train de se d'opérer et il faut la... Peut-être que les vieilles logiques ne sont plus pertinentes. Je sais pas. Peut être qu'il faut inventer d'autres façons. Mais je, parle sans connaître. Etienne: Enfin, nous non plus nous ne sommes pas du tout juristes, donc encore moins spécialistes que toi. Mais c'est vrai qu'on sent qu'il y a enfin, moi je sens qu'il y a vraiment quelque chose à trouver. Enfin voilà, trouver un moyen de, comme tu dis Arnaud, de ne pas essayer de récupérer des petites miettes parce que ça, ça ne va pas être tenable d'essayer de trouver. Alors est-ce que c'est la logique qu'ont trouvé les développeurs avec le monde de l'open source où tout d'un coup tu peux libérer ton travail, mais t'es quand même payé pour le travail que tu fais. C'est-à-dire que c'est redistribué, distribuable sous certaines conditions. Ça c'est une piste intéressante. Mais c'est vrai que je pense que ce qui est intéressant là, dans cette révolution, comme tu dis, je pense que t'as raison, c'est que ça va remettre en cause. Il va falloir repenser plein plein de choses, on parlait de la pédagogie, des droits d'auteurs, de l'éthique à fond quoi. Voilà, c'est vraiment, c'est des chantiers en parallèle, c'est pas l'un après l'autre. C'est passionnant mais en même temps ça fait un peu peur. Anaëlle: Mais tous les domaines sont concernés. Oui, c'est ça, et tous les domaines sont concernés. C'est veut dire qu'aujourd'hui c'est difficile de dire nous on est à l'abri, on sera jamais, tout. Mais même la justice, même la justice, on n'en a pas du tout parlé. Mais on a parlé de la médecine prédictive. Maintenant on a de la justice peut-être prédictive, avec des algorithmes qui vont avec, plein de biais et pleins de discrimination. Etienne: Philippe K.Dick on l'avait vu avant. T'avais des questions? Parce que je viens de voir. Il est 21h29. Arnaud : On s'approche de la fin, on va pouvoir se refaire un petit générique de fin. Gaëlle: Oui c'est vrai que normalement Anaëlle on avait, on a aussi quelques des questions pas directement liées au IA. Alors je vais peut-être aller directement sur un truc un peu positif puisqu'on s'approche de la fin. Donc Anaëlle, est-ce que toi, qu'est-ce que tu as vécu de peut-être de plus beau, de plus inspirant, en lien avec le numérique, dans ta pratique professionnelle? Anaëlle : Dans ma pratique professionnelle en lien avec le numérique, d'inspirant, alors il faut que je cherche. Gaëlle : Il y a d'autres mots engageants, motivants, inspirants. Arnaud : Inspirant j'utilise pas ce terme. Un truc peut-être. Quand tu disais tout à l'heure que tu t'étais dirigée vers le numérique. Est ce qu'il y a... Anaëlle : J'ai un peu honte parce que c'est pas forcément des choses à dire, mais en fait, moi je suis une fan de science fiction et l'IA. Etienne : Alors moi aussi là, j'ai honte. Arnaud : Mais pareil. Etienne : Tu sais, tu peux y aller ici. Anaëlle : Alors à la base, j'aime bien. J'adore les robots, l'IA, les systèmes d'IA comme on en voit dans les films, dans les romans, dans Asimov et compagnie. Moi j'ai toujours aimé ça et le jour parce que finalement c'est venu assez vite l'IA. Moi je me souviens, en 2015, on a commencé à en parler 2015, 2016 et moi je me suis tout de suite intéressée dès que ma fac, moi, dès qu'il y a eu des conférences là dessus, je me suis. Et voilà. Donc en fait, moi, le numérique, je trouve que c'est par essence quelque chose d'inspirant. Bien sûr, je suis un cran dans l'éthique, donc je sais qu'il y a des dérives, qu'il y a des risques, qu'il faut faire attention. Mais à la base, je trouve que c'est un outil qui est positif si on l'utilise bien, si on fait attention. Et en soi, c'est le numérique est quelque chose d'inspirant, ça rapproche les gens, ça permet de... On l'a vu pendant le Covid, finalement on a pu faire des visio, on a pu. Il y a eu des systèmes de solidarité qui se sont mis en place, donc tout n'est pas mauvais. On a souvent tendance à voir que les aspects négatifs et un peu dystopique parce que bon, on va vite dans les Terminator, etc. Les machines super intelligentes, il y a beaucoup de mythes là dedans aussi, qui est aussi lié à la science fiction, on va pas dire le contraire, Gaëlle : De la machine qui prend le pouvoir. Anaëlle : Voilà, c'est ça. Mais alimentée par des chercheurs qui je ne sais pas Nick Bostrom par exemple, si vous avez lu La Super intelligence, il y a des chercheurs très sérieux qui sont réputés et qui disent Il y a un risque que la singularité technologique, ça va nous échapper dans quelques années et on va se faire réduire en esclavage par des systèmes d'IA très intelligents. Et moi, la base, je trouve que le numérique c'est inspirant et quelque soit les domaines finalement, même maintenant là moi je pense que moi j'utilise beaucoup Dall-e, je trouve que c'est, j'aime beaucoup, mais même même chat GPT, j'avoue je m'amuse avec chat GPT. Je trouve que j'ai envie de rire. Il sort parfois des phrases super drôle. Etienne : C'est fou, c'est fou, il est capable de te faire des histoires drôles. Anaëlle: Les œufs de vache, ça m'a fait rire, j'avoue. Etienne : Mais c'est marrant ce que tu dis sur la SF, moi je suis un grand fan de SF mais tu vois Asimov que j'avais laissé un peu tomber en fait je vais commencer à le relire parce que c'est des questions, les lois de la robotique - Anaëlle: Exactement. Etienne : Et tout ça. Anaëlle : Les trois quatre lois de la robotique. Etienne : Voilà, c'est basé sur comment il peut y avoir des biais, des effets rebonds sur ces fameuses lois. Et c'est assez passionnant. Et je sais qu'il y a des à la HEAD à Genève, ils ont fait des workshops, donc une école d'art, pareil sur les lois de la robotique et voilà. Et à Orléans aussi. C'est marrant parce qu'ils sont repartis sur des textes d'Asimov qui sort des années 50 et puis on dit tiens, maintenant qu'on y est. En gros, c'est ça que ce texte n'est plus de la SF. Ce qu'on a lu c'est des robots, mais c'est pas grave, là on est sur des intelligence artificielle qui simule l'intelligence et c'est vraiment passionnant parce que sur des mécaniques comme ça ou tout d'un coup. Voilà pourquoi le robot peut mentir, à quel moment c'est des problèmes d'éthique. Et ça parle que de ça en fait. Anaëlle: Oui, et c'est un précurseur. C'est incroyable ce qu'il a... Et il y a les fameuses lois de la robotique. Donc un robot va faire du mal à un être humain et désobéir. Ça, quelque part, ça a beaucoup inspiré aussi le Parlement européen qui dans sa résolution avait cité...Il y avait c'est ça une influence, mais le fait qu'on veut absolument des systèmes d'IA qui sont bienfaisants, centrés sur l'être humain, qui ne font pas de mal. Les principes de bienfaisance, de respect de la dignité humaine, tout ça, c'est un petit peu un héritage d'Asimov pour moi, c'est quelque chose qui est ancré dans notre passé, dans l'inconscient collectif le robot, il peut nous faire du mal. [01:04:31] Gaëlle Oui, il faut faire attention à nous. Finalement, grâce à ces auteurs où on prend de la, on prend de l'avance, on anticipe. Sur ce qui pourrait arriver. Oui j'imagine les juristes en train de relire tous Asimov avant de faire les lois. Etienne : Et oui parce que lui, il a passé toute sa vie à réfléchir là-dessus, à en faire des romans, mais justement à imaginer des biais, à dire tiens, mais comment un robot peut tuer un humain? Qu'est-ce qui s'est passé? Donc les lois qui semblaient parfaites visiblement, sont imparfaites et je trouve ça assez intéressant. Ça me donnerait presque envie de le relire, mais il est pas super bien écrit. Gaëlle : Mais il y a eu un podcast il y a pas longtemps je crois, c'est sur France Culture je crois qui parlait justement des IA et il y avait deux philosophes qui étaient là et qui disaient que c'était vraiment impossible en fait. Voilà, je simplifie un peu ce qui disait que c'était vraiment impossible que cette vision de science fiction des IA était pas du tout réaliste et c'est assez intéressant. Faudrait que je retrouve le. Etienne : de Asimov ? Anaëlle : De Jean-Gabriel Ganascia. Ah oui, il a passé et c'est un des livres qui m'a plu, qui m'a un petit peu déniaisé. Alors pas débiaisé mais un peu déniaisé. Parce que moi je pensais que la singularité technologique était pour demain. Et en fait, j'ai lu, son livre, Le mythe de la singularité. Il explique qu'en fait, à l'heure d'aujourd'hui, y a rien qui permet de dire que ce système va nous dépasser un jour. C'est c'est un petit peu aussi, c'est comme si on avait peur de notre cafetière. Mais voilà, on a pas à craindre ce système-là. Etienne : Parce que pareil, je ne suis pas mathématicien ni spécialiste, mais ce que j'ai lu, c'est que de toute façon c'est entièrement biaisé, c'est à dire que le raisonnement est faux. Enfin, c'est un raisonnement qui apparaît juste pour nous, mais en fait il est totalement faux puisqu'il est basé sur des statistiques et c'est juste des stats donc en fait les, même, Yann Le Cun, les grands des grands chercheurs dans ce domaine disent oui, on a conscience que ça paraît vrai, mais de toute façon, fondamentalement, ce n'est pas du tout le même raisonnement et c'est faux. Donc ils vont essayer de l'améliorer des choses comme ça. Mais pour l'instant, c'est pour ça, il n'y a pas de... je crois qu'on a trop vu. Moi je sais que j'avais vu une stat de 99 % des français connaissent, Terminator, enfin connaissent peut-être qui n'ont pas vu. Donc en fait les biotech, du fait c'est Terminator Schwarzenegger qui vient se venger plus tard. Voilà. Mais alors qu'il y a plein d'autres choses assez passionnantes quoi. Arnaud : Merci beaucoup Anaëlle pour cette parfaite conclusion sur la singularité et - Etienne : C'est très bien. Arnaud : Si tu veux m'envoyer après la ref pour la mettre après sur le site avec la rediffusion pour que les gens et Gaëlle si tu retrouves. Gaëlle : Je l'ai mis dans le twitch. Donc en effet c'est bien avec Jean Gabriel Ganascia. Arnaud : Merci et bonne soirée. Anaëlle: Merci. Merci beaucoup c'est moi. Etienne : Merci Gaëlle : Salut!