
À l’heure où l’intelligence artificielle s’impose comme un pilier incontournable de la transformation éducative, les questions se multiplient : quels modèles prédictifs sont réellement efficaces, comment garantir l’équité dans les interactions avec les étudiants et quels défis soulève la gestion des données personnelles ? Dans cet entretien, notre interlocuteur explore les promesses et les limites de l’IA dans l’apprentissage en ligne, tout en partageant une vision pragmatique : accompagner les utilisateurs dans leurs premiers pas, favoriser l’application concrète des outils et rester en veille constante face à une révolution technologique qui avance à une vitesse fulgurante.
Entretien de larticle.ch avec M. Ernesto Martinez,
Larticle.ch : Pour le grand public, qu’est-ce que l’IA ?
Ernesto Martinez : Il pourrait exister de nombreuses définitions : un outil de soutien, un assistant personnel… Au fond, c’est une entité technologique qui t’accompagne pour réaliser les tâches dans lesquelles tu as besoin d’aide ou qui, simplement, ne t’apportent pas de valeur ajoutée et ne nécessitent pas ton implication directe.
Après trois ans à vivre de près la révolution qui transforme ce domaine, aujourd’hui je la définirais comme un cerveau artificiel capable d’amplifier, de renforcer et d’étendre de manière extraordinaire notre cerveau naturel.
L.ch : N’importe qui, avec l’IA, pourra-t-il accéder à nos données ? Comme cela se produisait avec les annuaires téléphoniques ?
E.M. : Je peux expliquer ce qui se passe aujourd’hui, car je n’ai pas de boule de cristal pour deviner l’avenir. Ce que nous savons, c’est que nous sommes déjà très vulnérables sur Internet.À ce jour, les IA ne peuvent pas accéder à nos espaces privés à moins que nous ne leur permettions. C’est pourquoi la recommandation est claire : éviter d’introduire des données personnelles ou sensibles que nous ne voulons pas partager, car nous ignorons ce qui pourrait se passer à court ou moyen terme.
L.ch : Comment concilier l’innovation en IA avec la nécessité de protéger la vie privée des utilisateurs dans un monde de plus en plus numérisé ?
E.M. : L’innovation en IA et la protection de la vie privée peuvent coexister si l’on conçoit des systèmes qui ne collectent que les données indispensables, utilisent des techniques comme l’anonymisation, et s’appuient sur des cadres réglementaires clairs tels que le GDPR ou l’AI Act. La transparence est essentielle, il faut expliquer quelles données sont utilisées et dans quel but.L’utilisateur doit avoir le contrôle pour supprimer, limiter ou gérer ses informations. De plus, l’éthique doit être intégrée dès le départ, grâce à des audits et au contrôle des biais.En résumé, il ne s’agit pas de freiner l’IA, mais d’innover de manière sûre, responsable et orientée vers la protection des personnes.
L.ch : Pensez-vous que la majorité des gens sont bien informés sur ce qu’est l’IA ?
E.M. : Sincèrement, je ne le pense pas. Comme toujours, un petit groupe de personnes s’informe, apprend, enquête et se tient à jour. Mais si nous regardons autour de nous, les chaînes de télévision commerciales n’ont de programmes dédiés à cette nouvelle révolution industrielle. Les gouvernements ne s’en préoccupent pas non plus, et l’Union Européenne s’est concentrée sur la régulation, mais pas sur la divulgation ni l’éducation.
L.ch : Quels risques voyez-vous dans la création de modèles d’IA qui imitent les conversations humaines au point qu’il devient difficile de distinguer une personne d’une machine ?
E.M. : Nous savons tous que tout progrès a deux faces, comme une pièce. Une face est positive : elle permet de créer, d’augmenter la productivité, d’améliorer la qualité et de multiplier nos capacités. Mais l’autre face, celle qu’exploitent toujours les « méchants » pour obtenir ce qu’ils veulent des « gentils », restera toujours la partie négative.C’est pourquoi nous devons mettre des barrières et être prudents. Par exemple, si tu ne peux plus distinguer la voix réelle de ton enfant d’une voix générée par une IA qui t’appelle pour te demander de l’argent, la solution la plus sensée est que toute la famille convienne d’un mot de passe. Ainsi, si tu reçois un appel suspect, tu poses la question : si on ne te donne pas le bon mot, tu sais que c’est une IA qui tente de t’arnaquer.Il s’agit essentiellement de nous protéger nous-mêmes. Évidemment, les IA disposent déjà de leurs propres guides de sécurité et limites, mais apparaissent aussi de nouvelles menaces comme les « prompt injections » : un type de cyberattaque qui introduit des instructions malveillantes dans les modèles pour les manipuler, contourner les protections, révéler des données confidentielles, diffuser de la désinformation ou exécuter des actions non autorisées.La technologie avance vite, oui, et notre responsabilité en matière de protection doit avancer au même rythme.
L.ch : Comment faudrait-il expliquer à l’utilisateur qu’il interagit avec une IA ?
E.M. : Nous nous souvenons tous de la première fois où nous avons navigué sur un site web : nous étions perdus, nous ne savions pas à quoi ça servait et c’était peu utilisé. Aujourd’hui, nous nous déplaçons sur les sites comme s’il s’agissait de notre propre journal.Avec l’IA, il se passe quelque chose de très similaire. Au début, nous apprenons par essais et erreurs, et nous répétons souvent les mêmes fautes sans nous en rendre compte. Pourtant, ce n’est pas si complexe le tout part d’un principe de base.Si tu construis de bonnes questions (de bons prompts), l’IA te donnera de bonnes réponses. Si tes questions sont faibles, l’IA te répondra de façon faible. Ce principe s’applique à tout type d’IA : texte, audio, vidéo, image ou tout ce qui viendra.La clé est de bien poser les questions. Toujours.
L.ch : Pensez-vous que l’IA devrait avoir des limites légales spécifiques, similaires à celles d’autres technologies sensibles comme la biotechnologie ou l’énergie nucléaire ?
E.M. : Bien sûr. Il n’existe pas seulement l’autoprotection personnelle dont nous parlions, créer des prompts solides avec les garde-fous nécessaires, mais il est également indispensable de disposer d’une régulation qui protège tous les utilisateurs, quelle que soit leur condition.L’Europe, à mon avis, avance dans la bonne direction. Aux États-Unis, des propositions émergent qui, de mon point de vue, vont assez loin. Quant à la Chine, il est difficile d’opiner lorsqu’on ne dispose pas d’informations.Dans tous les cas, je suis totalement d’accord sur la nécessité de fixer des limites pour garantir la protection des personnes, sans pour autant freiner le développement de la technologie.
L.ch : Pensez-vous que l’IA puisse faire sentir un individu puissant ?
E.M. : Oui, l’intelligence artificielle peut faire qu’une personne se sente puissante. Lorsque tu as accès à autant d’informations, que tu peux les vérifier et les utiliser avec discernement, il te faut une grande capacité critique et un bon niveau de créativité. Cette combinaison donne réellement du pouvoir.Cela dit, il ne faut pas oublier l’autre facette du problème. Même si certains l’entendent encore comme des « tambours lointains », la perte d’emplois est déjà en cours. Un exemple clair est Amazon : rien que cette année, l’entreprise a licencié 14 000 employés et environ 30 000 autres suppressions sont prévues, principalement remplacées par la technologie et l’intelligence artificielle.La réalité est simple : si toi tu maîtrises l’IA et que ton collègue ne le fait pas, tes chances de conserver ton poste ou même de progresser professionnellement sont bien plus élevées. La différence ne tient plus seulement au talent, mais aussi aux outils et à la capacité d’adaptation.
L.ch : Aujourd’hui, l’IA est-elle créée par des personnes ou… est-ce elle-même qui s’auto-alimente ?
E.M. : Bien que l’intelligence artificielle soit encore majoritairement développée par des humains, en 2025 il existe déjà des systèmes capables de s’auto-répliquer et de fonctionner de manière autonome. Malgré cela, la supervision humaine reste indispensable pour garantir un développement responsable, la sécurité, et l’alignement avec les objectifs que nous fixons.
L.ch : L’IA amplifie-t-elle nos valeurs en tant que société, ou reflète-t-elle plutôt nos préjugés et contradictions ?
E.M. : L’intelligence artificielle reflète inévitablement les biais et contradictions présents dans la société, car elle apprend à partir de données générées par des humains et porte donc nos mêmes limitations. Pourtant, elle possède aussi la capacité de promouvoir des valeurs positives et de favoriser le bien-être collectif, à condition d’être conçue, supervisée et régulée avec rigueur.Si nous alignons ses systèmes sur des principes éthiques clairs et des valeurs humaines partagées, l’IA peut devenir un outil puissant pour améliorer nos décisions et renforcer une société plus juste et plus responsable.
L.ch : En tenant compte de votre rôle d’enseignant, pour qui l’IA est-elle plus avantageuse : pour l’enseignant ou pour l’étudiant ? Pourquoi ?
E.M. : L’intelligence artificielle est un avantage pour les deux : celui qui enseigne et celui qui apprend. Il ne s’agit pas de copier, coller et rendre un travail, mais de disposer d’un véritable compagnon d’étude avec lequel confronter des idées, résoudre des doutes et explorer de nouvelles approches.Pour l’étudiant, cela élargit sa capacité de compréhension, son esprit critique et sa créativité.
Pour l’enseignant, cela ouvre la porte à créer des activités plus riches, variées et adaptées, non seulement pour les examens, mais aussi pour tous types de dynamiques en classe. Ainsi, l’IA devient un outil qui enrichit le savoir dans les deux sens.
L.ch : Quels types de données sont éthiquement problématiques dans un environnement éducatif ?
E.M. : Exactement les mêmes que celles protégés actuellement par la législation sur la protection des données, toutes les informations susceptibles de compromettre la vie privée, comme les données personnelles, les données sensibles concernant les mineurs, ou encore les informations socio-économiques et familiales liées aux comportements ou au suivi.
L.ch : Comment l’IA est-elle perçue dans les milieux étudiants ? Selon votre expérience
E.M. : Sur ce point, je dois être critique. Il est évident que tous les étudiants ne sont pas pareils, mais on observe que, majoritairement, ils utilisent l’IA comme un outil pour copier, coller et rendre un devoir. Ils ne se rendent pas compte qu’en agissant ainsi, ils perdent une occasion en or d’élargir leur propre développement et d’approfondir leurs connaissances.N’oublions pas que le cerveau est un muscle : si tu ne l’exerces pas, il finit par s’atrophier. Une publication récente du MIT (Media Lab) indique qu’il y a une diminution de 47 % de l’activité cérébrale lorsque les personnes utilisent ChatGPT pour écrire, comparé à l’écriture sans assistance numérique.J’insiste, ce n’est pas le cas de l’ensemble des étudiants, mais bien d’une partie significative qui n’a pas encore compris la véritable valeur d’apprendre avec accompagnement.
L.ch : Quelles limites l’IA devrait-elle avoir dans l’éducation ?
E.M. : Dans le domaine éducatif, l’intelligence artificielle doit être appliquée avec des limites claires pour préserver les valeurs humaines, la vie privée et la qualité pédagogique. Ces limites doivent être éthiques, légales et pédagogiques, en garantissant toujours le respect du rôle de l’enseignant, l’équité dans l’accès et la transparence totale dans son utilisation.
L.ch : Existe-t-il un risque que l’IA “déshumanise” l’apprentissage ?
E.M. : L’IA peut effectivement déshumaniser l’apprentissage si elle est utilisée de manière indiscriminée ou sans base éthique et pédagogique solide. L’éducation ne consiste pas seulement à transmettre des informations, c’est un processus social, émotionnel et culturel qui exige une interaction humaine pour développer des compétences comme l’empathie, la pensée critique et la collaboration.C’est pourquoi l’IA doit être intégrée comme un soutien qui renforce l’expérience éducative, jamais comme un substitut au lien humain qui donne son sens à l’acte d’apprendre.
L.ch : Quelles décisions éthiques doivent prendre les personnes qui développent des outils d’e-learning basés sur l’IA ?
E.M. : Elles doivent prendre des décisions éthiques essentielles liées à la transparence, l’équité, la confidentialité et la responsabilité. Ces choix garantissent que la technologie serve à promouvoir un apprentissage juste, sûr et humain, en évitant les risques de désinformation, de biais ou de discrimination.
Et un point important c’est de créer des parcours d’apprentissage qui divertissent, enseignent et engagent.
L.ch : Quel type de modèles fonctionne le mieux pour prédire la performance des étudiants : régression, arbres de décision, modèles séquentiels… ? Pourquoi ?
E.M. : Je ne peux pas répondre à cette question, car ce n’est pas mon domaine d’expertise.
L.ch : Quels avantages l’IA apporte-t-elle à l’apprentissage en ligne aujourd’hui ?
E.M. : Avec l’arrivée de la multimodalité dans l’intelligence artificielle, les plateformes ne se limitent plus à générer du texte, elles interprètent aussi des images, de l’audio, de la vidéo et d’autres formats. Cela permet de créer de véritables supports multimédias qui enrichissent l’apprentissage, rendant l’éducation plus personnalisée, plus efficace et plus accessible. Grâce à cela, l’expérience des apprenants comme le rôle des enseignants se voient transformés.
L.ch : Comment peut-on garantir que l’IA traite tous les étudiants de la même manière ?
E.M. : Il n’est pas nécessaire de “le garantir” : les IA traitent tout le monde de manière égale. Le véritable défi réside dans la manière dont les personnes interagissent avec elles et dans la façon dont elles communiquent avec elles. Comme je l’ai déjà mentionné, plus ta communication est claire, directe et efficace, tout comme lorsque tu parles avec ta fille, meilleures seront les réponses que tu obtiendras. L’IA te répondra de manière puissante, cohérente et utile si tu formules tes questions avec précision et intention.
L.ch : Quelles politiques ou quels standards sont suivis pour le stockage des données éducatives, en rendant les étudiants anonymes en permanence ?
E.M. : Dans ce cas, je peux seulement ajouter que chaque établissement dispose de sa propre plateforme d’apprentissage en ligne, avec ou sans intégration de l’intelligence artificielle. Toutes doivent respecter strictement les directives établies par le RGPD dans l’Union européenne, garantissant ainsi la protection des données personnelles des élèves et du personnel de l’établissement.
L.ch : Quelle serait la recommandation la plus judicieuse pour travailler avec l’IA ?
E.M. : La première chose dont toute personne débutant en intelligence artificielle a besoin, c’est d’être accompagnée dans ses premiers pas, afin d’éviter ces erreurs initiales qui deviennent ensuite de mauvaises habitudes technologiques. Deuxièmement, il est nécessaire d’être soutenu pour appliquer ce que l’on apprend dans des situations réelles, que ce soit dans la vie personnelle ou professionnelle, car c’est ainsi que l’on découvre réellement l’impact transformateur de l’IA. Et troisièmement, il est essentiel de compter sur soi-même (ou sur quelqu’un de confiance) pour rester informé dans cette révolution qui avance à une vitesse vertigineuse. Chaque jour, de nouvelles avancées peuvent transformer complètement notre façon de travailler et de vivre ; ne pas les suivre, c’est risquer d’être dépassé sans même s’en rendre compte.
En résumé, les premiers pas, l’application pratique et la mise à jour continue, ce sont les trois piliers essentiels pour maîtriser un outil qui n’est pas seulement là pour rester, mais pour tout transformer. Et c’est justement ce à quoi je me consacre.
En 2003, j’ai entamé ma phase d’indépendance en créant Fides Consultores, en maintenant les mêmes lignes d’activité, mais en augmentant les ressources technologiques, comme par exemple la création de l’un des premiers campus en ligne, et en collaborant avec de grandes organisations. Toujours lié à l’évolution technologique, après avoir vendu mon entreprise, je me consacre aujourd’hui à la vulgarisation et à la formation en Intelligence Artificielle, où convergent mon expérience, ma passion pour apprendre et, en plus, je m’amuse. -explique Ernesto
V.vA.