Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : des vidéos d'IA cocasses, l'essor des LLM en local, la confidentialité des données synthétiques, la création de frises chronologiques assistée par IA, les défis de la transcription audio et les perspectives d'avenir d'OpenAI. C’est parti !L'image de Will Smith mangeant des spaghettis est devenue un test courant pour les nouveaux générateurs de vidéos par intelligence artificielle. Ce phénomène illustre comment des exemples humoristiques servent de référence pour évaluer les capacités de l'IA. Dans le domaine technologique, ces tests sont appelés benchmarks. Ainsi, une vidéo de Will Smith devient un outil pour mesurer la performance des IA à créer des scènes réalistes ou divertissantes. Parallèlement, des figures du cinéma comme George Lucas estiment que l'intégration de l'IA dans la production cinématographique est inévitable, la comparant à l'adoption de la voiture face au cheval. Ashton Kutcher envisage même la possibilité que l'IA puisse générer des films entiers. Cependant, cette évolution soulève des questions éthiques et légales. En Californie, par exemple, il est interdit d'utiliser l'IA pour remplacer un acteur sans son consentement ou d'exploiter l'image d'une personne décédée numériquement. Les avancées en matière de deepfakes alimentent également des théories du complot, comme celle suggérant le remplacement du président Biden par un programme informatique.L'accès aux grands modèles de langage, ou LLM, en local progresse rapidement. Les performances de ces modèles ont considérablement augmenté, notamment pour ceux disponibles en open source. Il existe même des classements pour identifier les LLM les plus performants. Les logiciels permettant de les utiliser localement s'améliorent également, réduisant la puissance machine nécessaire. Pour faire fonctionner un LLM en local, une configuration minimale est recommandée, mais la tendance est à la réduction de la taille des modèles, entraînés avec des données de meilleure qualité. Plusieurs solutions existent pour utiliser les LLM en local sur divers systèmes d'exploitation. Ollama, compatible avec Windows, macOS et Linux, est apprécié pour sa simplicité et permet de télécharger directement les modèles. GPT4All, également multiplateforme, offre la possibilité d'utiliser l'IA avec des documents personnels en local. LM Studio, open source et gratuit, requiert un processeur avec l'extension AVX2 pour l'inférence sur CPU et supporte les puces Apple Silicon. Il permet aussi d'accéder aux modèles de Hugging Face et d'analyser des documents. Jan, un autre outil open source, se distingue par son interface épurée et s'appuie sur llama.cpp. Enfin, vLLM, plus technique, optimise l'inférence et le "serving" de LLM grâce à une gestion de la mémoire plus efficace, augmentant significativement les performances.Dans le domaine de la gestion des données, Metasyn est un outil open source permettant de générer des données tabulaires synthétiques tout en préservant la confidentialité. Ces données synthétiques imitent les caractéristiques des données réelles et sont utiles pour les tests sans exposer d'informations personnelles. Metasyn utilise des modèles génératifs qui apprennent des données d'origine pour créer des données fictives similaires. Cet outil répond aux enjeux de protection des données et est publié dans le Journal of Open Source Software, soutenu par NumFOCUS.L'intelligence artificielle peut également faciliter la création de frises chronologiques avec Timeline JS. Au lieu de remplir manuellement un modèle Google Drive, il est possible de demander à une IA générative de créer le code nécessaire. Un professeur souhaitant une frise sur l'Empire romain peut ainsi obtenir un code à copier dans un tableur, en veillant à la bonne répartition des informations dans les colonnes avant de l'intégrer dans le modèle Timeline JS.L'API Whisper d'OpenAI, dédiée à la transcription audio, rencontre parfois des difficultés liées aux accents. Des utilisateurs ont constaté des transcriptions dans des langues inattendues, comme l'arabe pour des hispanophones parlant anglais. Si spécifier la langue d'entrée peut aider, cela limite la transcription multilingue. Des solutions comme l'utilisation du paramètre "generate\_kwargs" pour forcer l'anglais ont été proposées, mais ne conviennent pas à tous les usages. Le problème semble venir de la détection des accents, qui influence le choix du jeu de caractères par l'IA.Les enjeux liés à l'intelligence artificielle restent un sujet de préoccupation. Un ancien PDG de Google a récemment alerté sur le risque d'une catastrophe planétaire d'ici cinq ans, soulignant la nécessité d'un encadrement rigoureux de cette technologie. Parmi les menaces ...
続きを読む
一部表示