Share.

    6 commenti

    1. Terrible-Today5452 on

      Est ce que l’europe arrivera à etre independante sur l IA et le numérique ?

    2. Big-View-1061 on

      Si seulement il y avait un groupe de personnes, preferablement elues, qui pouvait se reunir regulierement dans un batiment dedie a cette tache, afin de discuter de ce genre de problemes et voter des directives pour que ce genre de choses ne se passe plus.

    3. Acceptable_East4620 on

      Entretien intéressant même si on y enfonce des portes grandes ouvertes.

      La vraie question est : est-ce que l’Europe va se donner les moyens d’être indépendante ou bien va-t-elle continuer à dépendre des États-Unis ?
      Il y a du mieux dernièrement, mais je ne suis pas sûr que ce soit suffisant

    4. TrueRignak on

      > Meredith Whittaker – Le deep learning s’est imposé pour devenir synonyme de ce qu’on nomme aujourd’hui IA.
      >
      > GC – Pourquoi cette approche, assez marginale jusque dans ces années 2010, a-t-elle soudainement refait surface pour en venir à incarner seule la totalité de ce que nous considérons comme l’IA ?
      >
      > Meredith Whittaker – Cela s’explique très simplement : à cause du modèle économique des plateformes.

      Ouais, non, il y a un anachronisme là.

      Le deep learning s’est imposé parce que l’accélération matérielle a permis d’augmenter de plusieurs magnitudes la taille des réseaux de neurones, qui se prêtent parfaitement à la parallélisation sur GPU. Et cette augmentation de taille leur a permis de largement dépasser l’état de l’art de l’époque.

      En quelques années, on est passé de petit réseaux convolutifs à Alexnet, Inception pour la catégorisation, UNet et tout ce qui est auto-encoder pour la segmentation, les GAN et leur duel avec les VAE pour la génération d’image (qui ont tous deux fini par se faire supplanter par les modèles de diffusion), les LSTM puis les transformers pour les données séquentielles. Et ça, c’était permis l’amélioration des GPU et l’apparition de bibliothèques de différentiation automatique. Et donc n’importe quel chercheur ou étudiant pouvait faire tourner ses modèles à la maison. Ca a rien à voir avec le modèle économique des “plateformes”.

      C’est seulement bien plus tard qu’elles ont commencé à dominer la recherche et que les modèles SOTA ne pouvaient plus tourner sur le matériel perso.

      Edit :

      > Meredith Whittaker – L’IA a été faussement présentée comme une innovation scientifique, alors qu’elle est en réalité le résultat d’une concentration de pouvoir entre quelques acteurs historiques qui se sont imposés pendant la phase d’accumulation primitive de la commercialisation d’Internet.

      Je suis atterré de voir une critique aussi virulente de la communauté scientifique de la part de la présidente de Signal. D’autant qu’elle se base sur l’idée erronée que la recherche dans le machine learning/deep learning n’existe et n’a existé qu’au sein des GAFAM/Magnificient Seven/… C’est insultant pour tous les chercheurs, qu’ils soient doctorants, post-doctorant, professeurs, ingénieurs d’études, … qui se cassent le cul pour faire correctement leur taf’.

      C’est désolant.

    5. EvolvedEukaryote on

      Quel rapport entre l’IA et le cloud? On peut tres bien avoir l’un sans l’autre.

    6. Si les français et les européens essayaient d’être un peu plus patriote, cette hégémonie serait moins patente.

      Mistral en IA est parfaitement acceptable pour un usage de base ; idem pour Shadow…

      Mais, en regardant autour de moi, j’ai l’impression que tout le monde veut le meilleur du meilleur, même pour des trucs basiques. C’est limite incompréhensible.

    Leave A Reply