Catégorie : Actualités

  • NOUVELLES FONCTIONNALITÉS CHEZ KOSMO

    NOUVELLES FONCTIONNALITÉS CHEZ KOSMO

    Certains d’entre vous l’attendaient avec impatience : KOSMO s’est enrichi de nouvelles fonctionnalités avec la version actuelle. Nous vous dévoilons aujourd’hui ce qui se cache derrière.

    Visionneuse PDF

    Lorsque KOSMO génère une réponse, les sources utilisées sont toujours indiquées. S’il s’agit d’un site web, vous pouviez déjà y accéder facilement en un clic. C’est désormais également possible avec les fichiers PDF que vous avez mis à la disposition de KOSMO. Un clic et le fichier s’ouvre dans la visionneuse PDF. Les passages de texte que KOSMO a utilisés pour la réponse sont mis en évidence en couleur. Vous pouvez également imprimer ou télécharger le fichier directement. La recherche fastidieuse de documents est donc terminée !

    Tâches planifiées

    Vous posez régulièrement les mêmes questions à KOSMO ? Alors, nous avons la solution idéale pour vous : les tâches planifiées. Désormais, vous pouvez définir ce que KOSMO doit faire pour vous, quand et à quelle fréquence. Du bulletin météo aux articles les plus récents de votre site web préféré, KOSMO vous résume vos mises à jour dans un chat séparé et vous restez toujours informé.

    Notifications push

    Les dernières informations sont bien sûr également disponibles directement sur votre smartphone. KOSMO vous informe lorsque les tâches planifiées ont été effectuées. Vous ne manquerez ainsi plus aucune information importante.

    Connexion e-mail (bêta)

    Actuellement encore en version bêta, bientôt pleinement fonctionnelle : la connexion de votre boîte aux lettres électronique. Il vous suffit de saisir vos données d’accès et vous pouvez demander à KOSMO le contenu de vos e-mails. Vos e-mails deviennent ainsi une source d’informations. La fonction peut déjà être utilisée pour IMAP. Les utilisateurs de Gmail doivent encore patienter un peu.

    D’ailleurs : La fonctionnalité e-mail, ainsi que les fonctions connues « Nextcloud », « Stockage de fichiers », « Enregistrer des pages web » et « Instructions standard » se trouvent désormais dans le menu « ressources externes ».

    Et voici un petit avant-goût : la prochaine version est déjà dans les starting-blocks et est prévue pour fin octobre. Avec, entre autres, des résumés en un clic – vous pouvez être impatients !

  • NOTRE SPLITBLOG DE JUILLET : QUAND LES CHATBOTS DEVIENNENT POLITIQUES

    NOTRE SPLITBLOG DE JUILLET : QUAND LES CHATBOTS DEVIENNENT POLITIQUES

    Le Splitblog de juillet – Quand les chatbots deviennent politiques

    Ce mois-ci, nous vous montrons pourquoi il est important de remettre en question l’origine des chatbots et des modèles d’IA et de rester critique dans leur utilisation. La proposition de ce thème a été fournie par Mats de notre équipe backend.

    La manière dont la programmation d’un assistant IA ou d’un chatbot peut influencer le comportement de réponse a été démontrée de manière impressionnante par Grok 4 au cours des dernières semaines. Grok a généré sans retenue des déclarations antisémites et racistes qui ont fait les gros titres. L’entreprise xAI s’est depuis excusée et a déclaré que, selon la programmation, Grok était censé répondre de manière « honnête » et ne devait « pas avoir peur de choquer les personnes politiquement correctes ». Eh bien, au moins en ce qui concerne cette dernière instruction, on peut parler d’atteinte des objectifs. Et même en partant du principe que même une mauvaise presse est une bonne presse, Grok a certainement rempli son objectif. En tout cas, les gros titres sont une raison suffisante pour se pencher sérieusement sur les différents fabricants et fournisseurs de chatbots et d’assistants IA. Indépendamment du domaine dans lequel les systèmes doivent être utilisés, une vérification précise et des tests approfondis sont absolument nécessaires au préalable. En particulier, si les entreprises se font représenter dans leur communication externe par des chatbots, cela peut entraîner de graves atteintes à l’image de marque.

    Mais comment est-il possible que des assistants IA se laissent aller à de telles déclarations ? La base de tous les modèles linguistiques est constituée de données d’entraînement de tailles et d’origines très diverses. Donc, une masse d’informations disponibles pour répondre. La manière dont les réponses doivent être générées à partir de ces données est une question de programmation ou de paramètres individuels. Il est donc possible de déterminer, par exemple, que certaines sources d’informations doivent être utilisées en priorité ou que les réponses générées doivent être particulièrement humoristiques, scientifiques, longues ou courtes. Dans le cas de Grok, le scientifique des données Jeremy Howard indique également que le chatbot, sur des sujets controversés, reprend souvent les opinions et les déclarations du propriétaire de xAI, Elon Musk. Selon le programmeur Simon Willison, cela pourrait toutefois être dû au rôle prééminent de Musk.

    Des tendances similaires à celles que l’on observe actuellement chez Grok sont également à observer chez d’autres chatbots. DeepSeek ne répond pas non plus de manière neutre à une série de questions politiques. Dans certains cas, les réponses générées sont supprimées peu après leur création et remplacées par un « Parlons d’autre chose ». Apparemment, les réponses du bot sont au moins un peu plus neutres dans la version anglaise que dans la version chinoise. Des tests approfondis avec DeepSeek révèlent une « autocensure » programmée.

    Il n’est pas rare non plus en Europe de donner à des chatbots certaines normes éthiques avant de les lâcher sur l’humanité. Ainsi, notre chatbot KOSMO, qui est basé sur un modèle linguistique de la maison Mixtral, répond également de manière polie et évasive lorsqu’il s’agit, par exemple, de violence et de criminalité. Bien que ce comportement soit souhaitable, l’objectivité dans la reproduction des faits devrait, selon nous, être garantie à tout moment. La preuve de source intégrée y contribue, car elle donne aux utilisateurs la possibilité de vérifier et d’évaluer les sources utilisées.

    Il n’est jamais possible d’exclure complètement un certain biais dans les modèles linguistiques. Les connaissances d’un chatbot ne sont jamais aussi vastes que ses données d’entraînement et ses informations supplémentaires, et le comportement de réponse est souvent influencé par le feedback des utilisateurs pendant le réglage fin. Les utilisateurs eux-mêmes peuvent également influencer considérablement (inconsciemment) le comportement de réponse au moyen des prompts saisis.

    Outre d’autres facteurs, l’origine du modèle linguistique utilisé devrait donc également être examinée de près avant de trop se fier à l’exactitude des réponses.

  • NOTRE BLOG DIVISÉ EN JUIN : L’IA MODIFIE-T-ELLE LES EXAMENS ACADÉMIQUES ?

    NOTRE BLOG DIVISÉ EN JUIN : L’IA MODIFIE-T-ELLE LES EXAMENS ACADÉMIQUES ?

    Ce mois-ci, nous jetons un coup d’œil à l’avenir et nous nous demandons comment l’IA affectera les examens dans les universités et les écoles. Cette proposition de sujet vient de notre stagiaire Vincent, qui effectue actuellement un semestre à l’étranger en Suède.

    Les signalements de travaux générés par l’IA par des élèves et des étudiants se multiplient. De plus en plus souvent, les médias s’interrogent sur la manière dont les établissements d’enseignement pourront identifier les textes réellement créés par des humains. Malgré quelques indices, tels que certaines formulations, styles d’écriture et une absence de fautes supérieure à la moyenne, il est déjà difficile de déterminer avec certitude si un texte donné provient réellement de la plume d’un humain. Grâce à des modèles linguistiques et des méthodes d’invite de plus en plus performants (par exemple, « Formulez de manière aussi humaine que possible et intégrez des erreurs »), une identification claire deviendra de plus en plus difficile. Un problème majeur si l’on considère qu’une grande partie de la formation académique repose sur la création de textes. Que ce soit pour les candidatures, les examens, les mémoires de master ou les devoirs à la maison, les examinateurs misent partout sur des procédures basées sur le texte. Mais le risque est élevé que ces procédures d’examen ne fonctionnent plus de manière fiable à long terme. Les logiciels de détection qui promettent de reconnaître les textes créés artificiellement peuvent certes fournir des indications, mais ne sont pas eux-mêmes suffisamment fiables et peuvent être contournés par des moyens souvent simples. Et surtout, les textes rédigés par des personnes dont la langue maternelle n’est pas l’allemand sont souvent reconnus à tort comme créés par l’IA par ces programmes. Le risque de discrimination lors des procédures de sélection peut ainsi augmenter considérablement. D’autant plus qu’il est non seulement difficile de prouver qu’un texte a été créé par une IA, mais aussi de prouver le contraire.

    Mais comment les universités et autres établissements d’enseignement peuvent-ils gérer cela ? Les procédures d’examen oral pourraient, dans la plupart des cas, montrer clairement si quelqu’un a réellement réfléchi et compris par lui-même. Seuls les examens oraux entraînent d’énormes dépenses en temps et en personnel et ne peuvent pas interroger aussi facilement la même quantité de connaissances que les examens écrits.

    La plupart des établissements d’enseignement misent actuellement encore sur un simple principe d’interdiction. Mais certaines institutions explorent déjà de nouvelles voies. Till Krause, de l’université de Landshut par exemple, autorise les étudiants à utiliser activement l’IA comme source, à condition que cela soit clairement indiqué. Une indication précise du modèle linguistique utilisé et de l’invite utilisée est donc exigée. Car, malgré tous les défis que représente l’utilisation de l’IA dans les établissements d’enseignement, l’IA offre avant tout une chose : un trésor d’informations incroyablement vaste qui peut être parfaitement utilisé pour l’apprentissage et qui constitue une base fantastique pour le développement de ses propres idées et réflexions.

    L’université d’économie de Prague adopte également une approche pragmatique de l’utilisation de l’IA. Depuis l’automne 2024, le cursus de gestion d’entreprise n’a plus à rédiger de mémoire de bachelor traditionnel. Au lieu de cela, il y aura des travaux de projet dont les résultats seront évalués. Beaucoup considèrent cette approche comme plus judicieuse et plus proche de la pratique que les travaux précédents. Une approche tout à fait judicieuse, en particulier pour les cursus où il ne s’agit pas en premier lieu d’une écriture impeccable et artistique. Peut-être y a-t-il même une chance de mettre davantage en évidence les talents des personnes qui, par exemple, ont des difficultés d’orthographe.

    Le fait est que les procédures d’examen académiques devront être modifiées. L’IA est déjà intégrée dans le quotidien des élèves et des étudiants, comme d’autres moyens technologiques. Il faut maintenant trouver des moyens de vérifier les connaissances humaines d’une autre manière.

    Vous trouverez ici un podcast absolument incontournable sur le sujet : https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/ki-or-not-ki-koennen-wir-ihre-texte-noch-enttarnen/tagesschau/13779441/

  • Voici EVA

    Voici EVA

    Nous avons des nouvelles passionnantes ! Depuis le début de l’année, nous travaillons sur un nouveau projet. En collaboration avec quatre associations du Schleswig-Holstein, nous avons lancé le projet « Chatbot rencontre l’administration : les systèmes de dialogue intelligents comme solution d’avenir pour les organisations à but non lucratif ».

    Les organisations d’intérêt général sont souvent confrontées à autant d’obstacles bureaucratiques que les entreprises. Elles sont confrontées à des tâches administratives qui prennent une grande partie du temps disponible. Parallèlement, ces organisations vivent de l’engagement de bénévoles et disposent rarement des moyens nécessaires pour acquérir des logiciels coûteux. Les chatbots peuvent apporter une solution et faciliter le travail des associations, que ce soit pour la mise à disposition d’informations internes à l’association, pour la formulation de lettres ou pour l’intégration de nouveaux membres. Les connaissances existantes ne doivent plus être péniblement recherchées manuellement, mais peuvent être mises à disposition en langage naturel.

    L’utilisation de chatbots nécessite toutefois la prise en compte du règlement sur l’IA et de toutes les règles de protection des données pertinentes. Là aussi, certains obstacles peuvent se présenter, notamment pour les personnes n’étant pas spécialisées dans ce domaine. Avec notre idée de projet, nous offrons aux organisations d’intérêt général une souveraineté totale sur leurs données et garantissons le respect de toutes les directives pertinentes.

    Avec notre idée, nous nous sommes adressés au programme Civic Innovation Platform et avons réussi à convaincre. Notre projet est financé par le ministère fédéral du Travail et des Affaires sociales jusqu’à fin 2026.

    En collaboration avec des organisations à but non lucratif issues des domaines les plus divers, nous élaborons une solution open source qui sera également mise à la disposition d’autres associations à l’avenir. Avec EVA (abréviation de assistance administrative électronique), un système de chat est en cours de création, spécialement adapté aux besoins des associations et organisations à but non lucratif. Il sera possible d’héberger EVA soi-même et d’agir ainsi de manière indépendante des fournisseurs et à moindre coût. Nous recevons le soutien actif de la Protection de l’enfance d’Ostholstein, d’Ostsee-Holstein-Tourismus, de la Fédération régionale des associations de jardins familiaux du Schleswig-Holstein et d’InMotion. Grâce aux domaines d’activité variés de ces associations, nous pouvons tenir compte des exigences et des besoins les plus divers lors du développement d’EVA et élaborer ensemble un système de dialogue efficace et adapté.

    Vous trouverez de plus amples informations sur : https://www.civic-innovation.de/projektfoerderung/foerderprogramme/foerderrunde-2025-26#page-2254

  • NOTRE BLOG SPLIT EN MAI : COMMENT L’IA RÉVOLUTIONNE LA CHIMIE

    NOTRE BLOG SPLIT EN MAI : COMMENT L’IA RÉVOLUTIONNE LA CHIMIE

    Au mois de mai, nous abordons une proposition de sujet de Bartosz, notre « Teamlead Développement », et la question de savoir comment l’IA peut transformer la chimie.

    Dans notre vie quotidienne, l’intelligence artificielle fait déjà partie intégrante de nombreux domaines. Nous travaillons avec des modèles linguistiques et des chatbots, et nous utilisons des appareils ménagers intelligents. Cependant, nous ne sommes souvent pas vraiment conscients des possibilités insoupçonnées qui se présentent grâce à l’utilisation de l’IA. Notre thème actuel montre que les possibilités d’application de l’IA vont bien au-delà des gadgets « sympas à avoir ».

    Ceux qui s’intéressent à l’attribution du prix Nobel l’ont peut-être remarqué. Le prix Nobel de chimie de l’année 2024 a été attribué pour moitié à David Baker, et pour l’autre moitié à Demis Hassabis et John Jumper. Le travail des trois porte sur la conception de protéines, ainsi que sur la prédiction de leurs structures, à l’aide de l’intelligence artificielle.

    Les protéines sont des macromolécules biologiques composées d’acides aminés. Ceux-ci sont à leur tour liés par des liaisons peptidiques. Les protéines sont présentes dans chaque cellule et ont diverses fonctions vitales dans le corps humain. Elles servent d’hormones, de substances de signalisation, d’anticorps et d’éléments constitutifs des tissus.

    La structure des protéines peut être divisée en plusieurs niveaux.

    Structure primaire : il s’agit de la simple séquence des acides aminés dans la chaîne. Chaque acide aminé a une position spécifique, et cette séquence est essentielle à la fonction de la protéine.

    Structure secondaire : ici, les chaînes d’acides aminés se replient en motifs réguliers, tels que des spirales (hélices) ou des feuilles pliées (feuilles bêta). Ces structures aident à maintenir la protéine stable.

    Structure tertiaire : l’ensemble de la chaîne d’acides aminés se replie davantage pour former une forme tridimensionnelle complexe. Cette forme est essentielle à la fonction de la protéine, car elle détermine la façon dont la protéine interagit avec d’autres molécules.

    Structure quaternaire : certaines protéines sont constituées de plusieurs sous-unités qui forment ensemble une structure plus grande. Ces sous-unités peuvent s’assembler pour former un complexe fonctionnel.

    Hassabis et Jumper ont réussi à développer un modèle de prédiction des structures de protéines appelé « AlphaFold2 ». Tous deux travaillent pour DeepMind, une filiale de Google. Grâce à ce modèle, il est possible de prédire avec précision la structure tridimensionnelle d’une protéine à partir de sa séquence d’acides aminés. Jusqu’à présent, cela n’était possible qu’avec la méthode complexe de la cristallographie aux rayons X. Avec son aide, la structure en double hélice de l’ADN a été déchiffrée en 1953. Pour effectuer une cristallographie aux rayons X, la protéine concernée doit d’abord être sous forme cristalline. Grâce à « AlphaFold2 », la forme tridimensionnelle d’une protéine peut désormais être calculée sans qu’une analyse en laboratoire soit nécessaire.

    L’élément le plus remarquable de ce travail est sans doute le développement d’un tout nouveau type de protéine. Quelque chose qui était jusqu’à présent considéré comme quasiment impossible. Grâce au logiciel « Rosetta », développé sous la direction de Baker dès les années 90, il est désormais possible de concevoir pour la première fois des protéines entièrement nouvelles à l’aide d’« AlphaFold2 ». Il devient donc possible de créer des protéines ayant des fonctions spécifiques. Celles-ci pourraient par exemple être utilisées pour le développement ciblé de médicaments ou de vaccins. La création de nouveaux nanomatériaux est également envisageable.

    La recherche sur les protéines s’est donc ouverte à de toutes nouvelles possibilités grâce à l’IA, qui peuvent influencer notre avenir de manière décisive.

  • Encouragement intelligent grâce au crédit d’impôt pour la recherche

    Encouragement intelligent grâce au crédit d’impôt pour la recherche

    Vous travaillez, comme nous, sur un projet d’IA innovant ? Vous avez alors la possibilité de vous faire rembourser une partie des coûts des salaires et du développement par l’administration fiscale. Dans le cadre du crédit d’impôt pour la recherche, jusqu’à 35 % des coûts sont remboursés rétroactivement.

    Bien entendu, l’examen est minutieux lors de la demande. Quels risques techniques y a-t-il ou y avait-il et quel est exactement le cœur innovant du projet ? L’aide de la WTSH, du conseiller d’entreprise Roman Charkoi (Pollecon) et du réseau d’IA Schleswig-Holstein (KI.SH) nous a été d’une grande utilité dans le processus de demande.

    Contrairement à d’autres possibilités de financement, la demande de crédit d’impôt pour la recherche est relativement simple et facile à réaliser, même pour les jeunes entreprises inexpérimentées. Le crédit d’impôt pour la recherche est un moyen pratique de faire avancer des projets innovants de manière ciblée.

    Pour nous, chez Splitbot, le crédit d’impôt pour la recherche est une réussite totale. Nous avons pu convaincre le jury d’experts et, grâce à ce financement, nous pouvons faire avancer notre projet.

    Pour en savoir plus, consultez cet article : https://kuenstliche-intelligenz.sh/de/forschungszulage-splitbot

  • NOTRE SPLITBLOG D’AVRIL : DeepSeek-R1

    NOTRE SPLITBLOG D’AVRIL : DeepSeek-R1

    Comme toujours, nous avons abordé ici des suggestions de sujets de notre équipe. Le thème souhaité pour ce mois-ci vient de notre directrice générale, Caro, et porte sur le battage médiatique actuel autour de DeepSeek-R1.

    Lorsque l’on s’intéresse au modèle linguistique chinois DeepSeek-R1, une caractéristique saute immédiatement aux yeux : l’immense avantage de prix par rapport aux autres modèles. Et ce, avec des performances compétitives. Ce prix de combat est rendu possible par une méthode d’entraînement et une architecture de modèle extrêmement efficaces, qui ont été appliquées au modèle. DeepSeek-R1 a provoqué un véritable engouement et est presque présenté dans les médias comme un bond en avant. Mais qu’y a-t-il réellement derrière ?

    Beaucoup de bruit pour rien ?

    En réalité, DeepSeek-R1 n’est pas une nouvelle technologie, mais simplement une combinaison impressionnante de technologies déjà connues, comme l’approche Mixture of Experts.

    Cette combinaison innovante permet de faire fonctionner le modèle sur un matériel comparativement bon marché. Et : DeepSeek-R1 a perfectionné l’apprentissage par renforcement. En termes simples, les résultats produits par DeepSeek-R1 sont transférés dans la version suivante du modèle, ce qui permet d’améliorer considérablement l’« intelligence » de cette prochaine génération. OpenAI, par exemple, a actuellement besoin de beaucoup plus d’efforts pour améliorer considérablement ses propres modèles. C’est pourquoi le groupe subit une pression croissante de la part de DeepSeek-R1 et de la publication des détails techniques correspondants.

    Malgré toute cette agitation, il ne faut pas oublier que, ces dernières années, il y a eu des développements innovants presque chaque semaine dans le domaine des modèles linguistiques – de la part d’entreprises, d’universités ou d’acteurs étatiques. Le modèle Teuken7B en est un exemple. Ni l’approche Open Source ni la base de DeepSeek-R1 ne sont vraiment nouvelles.

    Le développement de DeepSeek-R1 est plutôt une réaction aux sanctions américaines – la Chine manque de matériel performant.

    DeepSeek-R1 est loin d’être le premier modèle linguistique Open Source à avoir réussi à se hisser en tête du tableau comparatif pendant une courte période.

    DeepSeek-R1 peut être utilisé par tous – même sans fonctionner sur son propre matériel. Toutefois, comme pour d’autres modèles, les données saisies sont transmises au fabricant. De plus, il faut être conscient que les connaissances sous-jacentes sont en partie colorées politiquement. Un fait qui a toutefois déjà été observé en partie sur d’autres modèles. DeepSeek-R1 a donc surtout réussi une chose : trouver une voie rentable et très efficace pour entraîner et améliorer des modèles linguistiques complexes. Et il a montré cette voie au public. On peut donc supposer que le développement dans ce domaine va encore s’accélérer grâce à la publication de DeepSeek-R1. Mais cela ne suffira probablement pas pour obtenir un avantage durable sur les concurrents.

  • Le Splitblog de mars : le prompting précis

    Le Splitblog de mars : le prompting précis

    Ce mois-ci, nous abordons le thème souhaité par notre collègue Heinke et apprenons tout ce qu’il faut savoir sur le prompting.

    L’engouement pour les chatbots ne faiblit pas, même deux ans et demi après la publication de ChatGPT, et il est probable que tout le monde ait déjà expérimenté un chatbot. Alors que les chatbots sont déjà utilisés dans de nombreuses entreprises, d’autres n’ont pas encore reconnu leur utilité ou n’ont pas été satisfaites des résultats de leurs tests. Mais quelle peut en être la raison ? Une des causes des réponses insatisfaisantes peut être des prompts insuffisants. Afin que vous obteniez les meilleurs résultats possibles à l’avenir, nous avons compilé pour vous un aperçu de ce qu’il faut prendre en compte lors du prompting.

    Qu’est-ce que le prompting ?

    Un prompt est la saisie qui est donnée au modèle de langage, ou au chatbot, afin d’obtenir une réponse spécifique ou un comportement déterminé. Le prompting est devenu un véritable sport pour de nombreuses personnes, qui sert non seulement à obtenir les meilleurs résultats possibles, mais peut également être utilisé de manière abusive. Ainsi, certaines personnes tentent d’obtenir des résultats intentionnellement erronés par le biais du prompting, par exemple pour nuire aux entreprises qui les mettent à disposition.

    Pourquoi le prompting est-il important ?

    Le prompting est important, car il influence la qualité et la pertinence des réponses d’un modèle de langage. Un prompt bien formulé peut contribuer à ce que le modèle fournisse exactement les informations nécessaires et évite ainsi les informations inutiles ou non pertinentes. Cela permet de gagner du temps et d’améliorer l’efficacité lors de l’utilisation de modèles de langage.

    Conseils pour un prompting efficace

    1. Soyez clair et précis :
      Un bon prompt doit être clair et précis. Évitez les formulations vagues ou ambiguës. Donnez au modèle autant de contexte que possible afin d’obtenir la réponse souhaitée.
    2. Utilisez des questions spécifiques :
      Posez des questions spécifiques au lieu de faire des demandes générales. Par exemple : « Quelles sont les étapes nécessaires pour lancer un nouveau projet ? » au lieu de « Parlez-moi de la gestion de projet. »
    3. Utilisez des exemples :
      Donnez au modèle des exemples afin de clarifier la réponse souhaitée. Par exemple : « Créez un e-mail qui remercie un client pour sa commande. Voici un exemple : « Merci beaucoup pour votre commande. Nous sommes heureux de pouvoir vous livrer votre marchandise prochainement. » »
    4. Utilisez des instructions :
      Donnez au modèle des instructions claires sur ce qu’il doit faire. Par exemple : « Écrivez un article de blog sur les avantages de l’intelligence artificielle. L’article doit comporter au moins 500 mots et être rédigé dans un ton informatif. »
    5. Évitez les ambiguïtés :
      Évitez les ambiguïtés et les informations inutiles. Un prompt clair et précis aide le modèle à fournir la réponse souhaitée plus rapidement et plus précisément.

    Exemples de prompting efficace

    1. Répondre aux questions :
      • Prompt : « Explique-moi les bases de l’intelligence artificielle. »
      • Réponse : « L’intelligence artificielle (IA) est un domaine de l’informatique qui s’occupe du développement de systèmes capables d’accomplir des tâches qui nécessitent normalement une intelligence humaine. »
    2. Créer des textes :
      • Prompt : « Écrivez un article de blog sur les avantages de l’intelligence artificielle. L’article doit comporter au moins 500 mots et être rédigé dans un ton informatif. »
      • Réponse : « L’intelligence artificielle (IA) a fait d’énormes progrès ces dernières années et offre une multitude d’avantages pour différents secteurs. De l’automatisation des tâches de routine à l’amélioration de la prise de décision, l’IA a le potentiel d’augmenter considérablement l’efficacité et la productivité dans de nombreux domaines… »
    3. Traductions :
      • Prompt : « Traduisez le texte suivant en allemand : « The quick brown fox jumps over the lazy dog. » »
      • Réponse : « Der schnelle braune Fuchs springt über den faulen Hund. »

    Conclusion

    Le prompting est un outil puissant qui vous aide à tirer le meilleur parti des modèles de langage. Avec les bonnes techniques et les bons conseils, vous pouvez vous assurer que vos prompts sont clairs, précis et efficaces. Utilisez ces stratégies pour améliorer la précision et la pertinence des réponses et rendre votre travail plus efficace.

  • NOTRE SPLITBLOG DE FÉVRIER : LES DEEPFAKES ET COMMENT LES RECONNAÎTRE

    NOTRE SPLITBLOG DE FÉVRIER : LES DEEPFAKES ET COMMENT LES RECONNAÎTRE

    Dans notre rubrique « Splitblog », nous reprenons, comme vous le savez, les suggestions de thèmes de notre équipe et nous les examinons souvent de manière critique, même lorsqu’il s’agit d’intelligence artificielle. Ce mois-ci, c’est moi, Katha, qui ai pu choisir un thème…

    Si l’on regarde à droite et à gauche ces jours-ci, ou même simplement le smartphone que l’on a en main, on a de plus en plus souvent peur. Les informations sur les guerres, les crises, la politique intérieure allemande et mondiale, les attentats et autres menaces sont devenues incontournables dans les informations quotidiennes. Le populisme sous toutes ses formes et couleurs nous influence plus que nous ne le pensons souvent (notre recommandation : https://www.zdf.de/show/mai-think-x-die-show/maithink-x-folge-31-populismus-100.html). S’il était déjà assez difficile ces dernières années de reconnaître ce qui est un fait et ce qui est une fiction habilement placée, un autre défi s’ajoute de plus en plus souvent : les deepfakes.

    QUE SONT LES DEEPFAKES AU JUSTE ?

    Les deepfakes sont de fausses informations créées par l’intelligence artificielle. Il peut s’agir de simples textes et articles, mais aussi de photos, de fichiers audio ou de vidéos. Alors que la manipulation d’images (réussie) nécessitait jusqu’à présent une certaine expertise, il est de plus en plus facile de générer de faux contenus crédibles grâce aux outils d’IA disponibles gratuitement et en masse. Les deepfakes sont utilisés de manière ciblée pour diffuser de fausses informations, pour différentes raisons et par différents camps.

    COMMENT RECONNAÎTRE LES DEEPFAKES ?

    La question de savoir comment se protéger contre les deepfakes devient vraiment passionnante. En effet, en raison de l’amélioration constante et rapide de la technologie, ce n’est pas si simple. Ceux qui souhaitent tester leurs capacités à distinguer l’homme de la machine peuvent le faire par exemple ici : https://www.humanornot.ai/. Il existe divers outils, également basés sur l’IA, qui promettent de démasquer les contenus générés par l’IA. Malheureusement, aucun d’entre eux ne fonctionne de manière vraiment fiable jusqu’à présent. Que peut-on faire d’autre ?

    VÉRIFIER LES FAITS :

    Qu’il s’agisse de texte, d’image (animée) ou de son, essayez d’évaluer le plus objectivement possible si les affirmations contenues peuvent être vraies et logiquement cohérentes. S’il n’est pas possible de procéder à une évaluation indépendante, il vaut la peine de rechercher d’autres informations sur le sujet. Il est souvent utile de considérer les faits présumés sous différents angles. Les sites www.mimikama.org, www.correctiv.org ou d’autres portails de vérification des faits sont par exemple utiles.

    VÉRIFIER LES SOURCES :

    Un autre indice important de la fiabilité est l’origine de l’information en question. Qui diffuse cette information ? S’agit-il d’un portail médiatique sérieux ou l’origine est-elle inconnue ? (Le saviez-vous : notre chatbot KOSMO fournit directement les sources utilisées pour chaque réponse générée).

    TROUVER DES PREUVES :

    Comme pour toute enquête, la règle suivante s’applique ici aussi : existe-t-il des preuves de l’information présentée, respectivement des affirmations et des thèses contenues ? La personne montrée ou citée pouvait-elle être sur place ?

    REGARDER DE PRÈS :

    Il faut être particulièrement attentif aux photos et aux vidéos. Du moins pour le moment, les images et les vidéos générées par l’IA ne sont souvent pas parfaites. Il y a des doigts en surnombre, des dents irréalistes, des détails inappropriés, comme par exemple des bijoux qui apparaissent de nulle part. En particulier pour les vidéos, les mouvements des lèvres ne correspondent généralement pas à la bande sonore ou la mimique semble anormalement artificielle. L’arrière-plan de l’image peut également être très révélateur. La perspective est-elle correcte ? L’image a-t-elle pu être prise de ce point de vue ? Si la première évaluation de l’image ou de la vidéo est concluante, il est souvent utile d’effectuer une recherche inversée. Google Lens offre par exemple la possibilité d’utiliser des images du smartphone pour la recherche sur Internet. Il est également possible de saisir l’URL de l’image dans un moteur de recherche quelconque. On tombe souvent sur la photo originale qui a été utilisée pour créer une fausse vidéo. S’il s’agit d’un événement important, vous pouvez partir du principe que vous trouverez d’autres images, car presque tout le monde a aujourd’hui un smartphone avec un appareil photo sur lui.

    NOTRE CONCLUSION :

    Nous serons tous de plus en plus souvent confrontés à des deepfakes de plus en plus crédibles à l’avenir. Il est donc d’autant plus important de s’y préparer et de savoir comment reconnaître les deepfakes.

    PLUS D’INFORMATIONS SUR LE SUJET :

    Vous trouverez d’autres informations sur le sujet, par exemple dans la rubrique #Faktenfuchs de la BR ou sur klicksafe.de. La zdf a également consacré un épisode de la série logo ! au sujet et l’a traité de manière adaptée aux enfants et aux jeunes.

  • Notre splitblog de janvier : Le chatbot comme moteur de recherche

    Notre splitblog de janvier : Le chatbot comme moteur de recherche

    En ce début d’année, nous nous consacrons à une suggestion de thème de notre apprenti Artur et nous nous penchons sur la question de savoir si les chatbots pourraient à l’avenir remplacer les moteurs de recherche traditionnels.

    La plupart d’entre nous les utilisent quotidiennement : les moteurs de recherche. Qu’il s’agisse de Google, Bing, Yahoo ou de l’un des innombrables autres moteurs de recherche, ils sont devenus indispensables à notre vie quotidienne. Votre fils veut savoir quel était le dinosaure le plus rapide ? Vous avez besoin d’une recette pour la prochaine fête de famille ? Et quel temps fera-t-il sur le lieu de vacances ? La célèbre citation de Bill Gates, « L’information au bout des doigts », est devenue une réalité confortable pour nous tous. Nous cliquons sur des liens et des sites web et trouvons en très peu de temps l’information qui nous est la plus utile.

    Mais qu’en est-il de nos données privées ou de nos documents de travail ? Lorsqu’il s’agit des détails de son propre contrat de téléphone portable ou des directives internes de l’entreprise, les moteurs de recherche ne sont que d’une aide limitée.

    Les chatbots peuvent faire passer notre recherche d’informations à l’étape supérieure. Il existe déjà des possibilités de relier les moteurs de recherche et les modèles linguistiques. Ainsi, la réponse à une question n’est plus simplement une liste de liens, mais une réponse formulée en langage naturel et avec des références aux sources. Mais ce n’est pas tout. Via l’API, divers autres systèmes peuvent être connectés aux chatbots, ce qui permet d’accéder aux informations qu’ils contiennent. Pour les entreprises, cela signifie qu’à l’aide de chatbots, les collaborateurs peuvent accéder rapidement et facilement à toutes les informations ou fichiers pertinents. Plus besoin de longues recherches dans différents systèmes de classement et d’information.

    Nous sommes certains que ce progrès s’étendra également au domaine privé dans un avenir proche. Le chatbot en question ne se contentera peut-être plus d’annoncer le temps qu’il fait sur le lieu de vacances, mais connaîtra également les détails de la réservation et, le cas échéant, les conditions de votre assurance voyage. Quiconque a déjà essayé de changer pour le meilleur contrat de téléphone portable sait que la comparaison à elle seule peut prendre des heures de temps de vie. Ne serait-il pas agréable que le chatbot sur le smartphone trouve non seulement le fournisseur optimal, mais sache aussi quelle est la durée de son propre délai de résiliation et prépare directement la résiliation correspondante ?

    Mais attention. Tous les obstacles ne sont pas encore levés. Tous les modèles linguistiques actuellement disponibles ont tendance à avoir des hallucinations. Et ce, surtout lorsque l’information recherchée n’est pas disponible. Ce phénomène occupe actuellement les chercheurs et les développeurs du monde entier. Chez Splitbot, nous augmentons la fiabilité et la vérifiabilité des réponses fournies en indiquant les sources utilisées pour chaque réponse.

    Grâce au développement rapide des chatbots et des modèles linguistiques, la fin des hallucinations est toutefois à portée de main et l’on peut se demander dans quels domaines de la vie les chatbots vont bientôt s’implanter.