Jahr: 2025

  • Der Splitblog im Oktober – SouveräniWAS?

    Der Splitblog im Oktober – SouveräniWAS?

    Der Splitblog im Oktober – SouveräniWAS?

    „Digitale Souveränität“ ist inzwischen ein echtes Buzzword. Doch was steckt eigentlich dahinter? Diese und andere Fragen beleuchten wir in diesem Monat auf Wunsch unseres Geschäftsführers Friedrich.

    Der Begriff „Digitale Souveränität“ ist inzwischen wohl jedem schon einmal begegnet. Aber wissen wir eigentlich, was das bedeutet? Das Wort „Souveränität“ bedeutet im politischen Sinne die Unabhängigkeit eines Staates von anderen, sowie die dessen Selbstbestimmung. „Digitale Souveränität“ meint also, dass der Staat oder auch die hiesigen Unternehmen im digitalen Bereich unabhängig von Lösungen aus anderen Ländern sein sollten.

    Warum ist das wichtig?

    Bekanntermaßen kommen viele der einschlägigen Softwarelösungen aus den USA. In politisch ruhigen Zeiten ist das auch weitestgehend unproblematisch. Was aber, wenn die eigenen Anforderungen an Datenschutz und Datensicherheit sich von denen des Herstellerstandortes erheblich unterscheiden? Welche rechtlichen Grundlagen gelten in diesem Fall? Genau diese Fragen sind spätestens seit dem Machtwechsel in den USA hochaktuell. Zwar gibt es verschiedene Abkommen und gesetzliche Regelungen zum transatlantischen Datentransfer, aber vollkommen rechtssicher sind diese nicht. Zumal das Grundverständnis in Sachen Datenschutz in Europa und den USA sich grundlegend unterscheidet.

    Wachsende Unsicherheit

    Im Februar 2025 hat Bitkom eine Studie veröffentlicht, die zeigt, dass das Vertrauen deutscher Unternehmen gegenüber internationalen Partnern und Softwareherstellern sinkt. Dem gegenüber steht eine starke Abhängigkeit von importierten digitalen Technologien. Details zur Studie finden Sie hier: https://www.bitkom.org/Studienberichte/2025/Digitale-Souveraenitaet

    Steigender Bedarf

    Der Wunsch nach digitaler Souveränität in Deutschland wächst also. Mehr noch: auf staatlicher Ebene handelt es sich nicht nur um einen Wunsch, sondern um eine Notwendigkeit. Natürlich wollen sich die Großkonzerne ihr Geschäft auf dem europäischen Markt nicht verderben lassen und haben sich auch prompt etwas einfallen lassen: Die eigenen Produkte mit dem „Label“ souverän versehen.

    Ist souverän drin, wo souverän draufsteht?

    Die Lösung der bekannten Anbieter scheint einfach zu sein. Die genutzten Rechenzentren sollen auf europäischem Boden stehen. Damit bleiben die Daten in der EU und sind damit sicher und geschützt. Doch so einfach ist es leider nicht. Der Clarifying Lawful Overseas Use of Data (CLOUD) Act erlaubt US-Behörden Zugriff auf europäische Kundendaten auch extraterritorial. Die erhoffte Möglichkeit, bei den vertrauten Softwareprodukten zu bleiben und trotzdem digital souverän zu bleiben, ergibt sich dadurch weder für den Staat noch für Unternehmen. Das musste auch der Chefjustiziar von Microsoft France bei einer Anhörung vor dem französischen Senat einräumen (hier nachzulesen: https://www.heise.de/news/Nicht-souveraen-Microsoft-kann-Sicherheit-von-EU-Daten-nicht-garantieren-10494684.html)

    Es bleibt also nach wie vor nur die Möglichkeit, sich nach vertrauenswürdigen, lokalen Anbietern umzusehen. Und das am besten, bevor es zu spät ist.

    Die gute Nachricht

    Wir bei Splitbot setzen schon seit Jahren auf digitale Souveränität und privacy by design. Mit KOSMO haben wir einen zuverlässigen Unternehmenschatbot entwickelt – made an hosted in Germany.

    Mehr zum Thema lesen Sie zum Beispiel unter https://www.cloudcomputing-insider.de/warum-europaeische-datenraeume-us-zugriff-nicht-ausschliessen-a-baa6db7b040dd0cf5026442f4c9d10f1/

  • Chatbots im Vergleich

    Chatbots im Vergleich

    Chatbots im Reality-Check: Wer schützt deine Privatsphäre?

    Künstliche Intelligenz revolutioniert die Arbeitswelt – doch wer sich auf digitale Assistenten verlässt, sollte genau wissen, wo seine Daten landen.
    Viele internationale Chatbots sind leistungsstark, aber sie verarbeiten Daten oft in Cloud-Strukturen außerhalb Europas. Für Unternehmen, Verwaltungen oder Organisationen mit sensiblen Informationen wird das schnell zum Risiko.

    Deshalb lohnt sich der Blick auf Alternativen, die Datensouveränität und Leistung miteinander verbinden. Einer davon: KOSMO, unser DSGVO-konformer Chatbot aus Deutschland für Europa.

    👉 In unserer neuen Vergleichstabelle zeigen wir, wie sich KOSMO gegen die großen Namen wie OpenAI, Gemini und Claude behauptet – und wo internationale Systeme ihre Grenzen haben.
    ➡️ Jetzt den vollständigen Chatbot-Vergleich ansehen


    Warum Datenschutz bei Chatbots entscheidend ist

    Chatbots wie ChatGPT, Gemini oder Claude sind beeindruckend – aber die wenigsten wissen, wo ihre Daten wirklich verarbeitet werden. Gerade für Kommunen, Pflegeeinrichtungen oder mittelständische Unternehmen, die mit personenbezogenen Daten arbeiten, ist das ein Problem.

    Die DSGVO verlangt, dass Datenverarbeitung nachvollziehbar, sicher und rechtskonform erfolgt. Viele Cloud-Dienste erfüllen diese Anforderungen nur teilweise.
    Ein On-Premise- oder in Deutschland gehosteter Chatbot wie KOSMO schafft hier Klarheit: Alle Daten bleiben innerhalb des eigenen Netzwerks oder in zertifizierten deutschen Rechenzentren.


    Was KOSMO anders macht

    KOSMO wurde speziell für Organisationen mit hohen Datenschutzansprüchen entwickelt.
    Die wichtigsten Vorteile im Überblick:

    • On-Premise-Betrieb: Keine Cloud, keine Weitergabe an Dritte
    • Gehostet in Deutschland
    • Europäisches Sprachmodell – entwickelt für lokale Anforderungen
    • Transparenz durch Quellenangaben – echte Quellen in eurer Unternehmensumgebung oder im Internet (andere Chatbots können auch Quellen halluzinieren)
    • Rollen- und Rechteverwaltung
    • Deaktivierbare Internetsuche für maximale Datensicherheit
    • IMAP-Integration für sichere E-Mail-Verarbeitung

    Damit ist KOSMO nicht nur eine KI, sondern ein echter digitaler Assistent für datensensible Umgebungen – von der Verwaltung bis zur Wirtschaft.


    Fazit: Vertrauen ist kein Feature – es ist Voraussetzung

    Die Zukunft gehört KI-Systemen, die leistungsfähig und zugleich verantwortungsvoll mit Daten umgehen.
    Während internationale Anbieter Geschwindigkeit und Reichweite liefern, setzt KOSMO auf Transparenz, Sicherheit und europäische Werte.

    💡 Wer auf digitale Assistenten setzt, sollte sich für Lösungen entscheiden, die Vertrauen verdienen – nicht nur Klicks.

    ➡️ Vergleich jetzt ansehen und KOSMO kennenlernen

  • Herbstrelease 2025

    Herbstrelease 2025

    Unser Herbstrelease ist online!

    Während draußen die ersten Blätter fallen, bringen wir frischen Wind in eure Arbeitsabläufe. Ab sofort hält KOSMO noch mehr Funktionen für euch bereit.

    Alles an einem Platz: Aus der Funktion „Externe Ressourcen“ wird „Personalisierung“. Hier findet ihr alle Optionen um KOSMO mit Informationsquellen zu verbinden und an eure Bedarfe anzupassen. Dateiupload, Standardanweisungen, E-Mail- und Cloudanbindung. Mach KOSMO zu deinem KOSMO.

    Termine immer im Blick: Bindet euren Outlook-Kalender an und fragt KOSMO nach euren nächsten Terminen.

    Cloud: Neben der vereinfachten Nextcloudanbindung könnt ihr jetzt auch OneDrive schnell und einfach mit KOSMO verbinden.

    Gedächtnis: KOSMO soll sich an vergangene Konversationen erinnern? Mit dem Tag „Gedächtnis“ kein Problem mehr.

    Papierkorb: Kein versehentliches Löschen mehr – dank Papierkorbfunktion könnt ihr vergangene Konversationen wiederherstellen.

    QR-Codes: Deine Unternehmenswebseite schnell und einfach teilen? Bitte KOSMO, dir einen QR-Code zu generieren.

    Und kennt ihr schon das KOSMO-Hilfecenter? Hier findet ihr alle Informationen rund um die Anwendung und neue Funktionen!

  • UNSER SPLITBLOG IM SEPTEMBER: ANGRIFFE AUF KI-SYSTEME

    UNSER SPLITBLOG IM SEPTEMBER: ANGRIFFE AUF KI-SYSTEME

    Der Splitblog im September – Angriffe auf KI-Systeme

    Diesen Monat befassen wir uns auf Wunsch unseres Auszubildenden Arturs mit Angriffen auf KI-Systeme.

    Brandaktuell wurde eine Sicherheitslücke bei ChatGPT bekannt. Angreifern ist es gelungen, an sensible E-Mail-Daten zu gelangen. Dabei ging es um Informationen wie Namen und Adressen aus Gmail-Konten. Genutzt wurde dafür der „Deep Research“-Modus. Als Eingangstor dienten manipulierte E-Mails mit unsichtbaren HTML-Inhalten. Die User selbst konnten den Angriff nicht erkennen, eine Aktivität der User musste nicht erfolgen.

    Unsichtbare HTML-Inhalte? Wie geht das?

    Angriffe in ähnlicher Form gab es schon häufiger. Hierbei wird beispielsweise weißer Text auf weißem Grund verfasst oder winzige Schriftgrößen verwendet. Beides ist für User nicht sichtbar, für KI-Sprachmodelle hingegen schon. Und schlimmer noch: KI-Systeme erfassen diese Anweisungen und führen sie aus. Prompt-Injection Wer versucht, ein KI-System mit einem regulären Prompt zu schädlichem Verhalten zu verleiten, wird schnell feststellen, dass das gar nicht so einfach ist. Angreifer suggerieren den KI-Agenten gezielt, sie seien für das jeweilige Vorgehen autorisiert. Sie geben textbasiert vor, dass bspw. das Ziel des Datenexports sicher sei und erzeugen eine künstliche Dringlichkeit. Diese Art des Promptens nennt sich Prompt-Injection. Es führt dazu, dass systeminterne Anweisungen umgangen oder außer Kraft gesetzt werden. Weitere Schwachstellen Dieses Vorgehen gilt auch für weitere Dienste, die den KI-Agenten als Informationsquelle dienen können. Dazu gehören beispielsweise PDF-Dateien, Google Drive, Notion und GitHub.

    Wie schütze ich meinen KI-Agenten vor solchen Angriffen?

    Es gibt unterschiedliche Möglichkeiten sich vor solchen Angriffsversuchen zu schützen. Beispielsweise das sogenannte Red-Teaming. Hierbei versuchen Experten mittels verschiedener Tests die beschriebenen Schwachstellen ausfindig zu machen. Zum Beispiel indem sie die beschriebenen Szenarien simulieren. Außerdem können bestimmte Eingabeformate blockiert werden. Zudem sollten natürlich die systeminternen Anweisungen so formuliert sein, dass der jeweilige KI-Agent niemals schädliche Handlungen ausführt.

    Und KOSMO?

    Unser Chatbot KOSMO verfügt momentan noch nicht über die technischen Voraussetzungen, Handlungen auszuführen – weder schädlich noch unschädlich. Sobald dieser Schritt ansteht, werden wir alle Maßnahmen ergreifen um unseren Kunden auch weiterhin den bestmöglichen Schutz zu bieten.

  • UNSER SPLITBLOG IM AUGUST: GReen AI

    UNSER SPLITBLOG IM AUGUST: GReen AI

    Für diesen Monat kommt der Themenwunsch von unserem Azubi Amirreza und wir stellen uns die Frage, ob Klimaschutz und der Einsatz großer KI Modelle miteinander vereinbar sind.

    Wer sich in letzter Zeit intensiver mit dem CO2 Verbrauch beschäftigt hat, ist sicherlich auch auf die Umweltbelastung durch generative KI aufmerksam geworden. Studien weisen darauf hin, dass der Strombedarf für KI-Rechenzentren bis 2030 elfmal höher sein wird, als im Jahr 2023. Auch ein Anstieg des Wasserbedarfs um das Dreifache wird prognostiziert. Eine einfache Anfrage an ChatGPT bspw. Bedarf zehnmal so viel Energie, wie einfaches „googlen“. Je länger die generierte Antwort eines Sprachmodelles ist, desto höher auch der Energieverbrauch. Im April dieses Jahres äußerte sich Sam Altmann zu den immensen Kosten, die durch technisch unnötige Höflichkeitsfloskeln wie „Bitte“ und „Danke“ verursacht werden. Es ist die Rede davon, dass große Techkonzerne künftig selbst Atomkraftwerke betreiben wollen.

    Das alles klingt, als müssten Unternehmen, die bestrebt sind ihren CO2 Fußabdruck gering zu halten auf generative KI verzichten. Doch gibt es wirklich keine Alternative?

    Tatsächlich sollten Unternehmen sich vor dem Einsatz generativer KI einige ökonomische und ökologische Fragen stellen, zum Beispiel: Ist der Einsatz generativer KI verhältnismäßig? Sind die Aufgaben, die das Modell lösen soll durch keine andere Technologie lösbar?

    Davon abgesehen, gibt es aber auch Möglichkeiten, die Klimaauswirkungen generativer KI zu beeinflussen. Ein wichtiger Faktor hierbei ist natürlich die Wahl des Betreibers und dessen Standort. Denn es gibt durchaus auch Betreiber, die KI-Systeme in klimaneutralen Rechenzentren betreiben. So setzen auch wir von Splitbot auf Rechenzentren, die beispielsweise mit erneuerbaren Energien betrieben werden und die produzierte Abwärme sinnvoll weiterverwenden. Außerdem bieten wir unseren Kunden die Möglichkeit, KOSMO on premise zu betreiben. Die ideale Lösung, wenn die eigene IT oder das eigene Gebäude bereits klimaneutral ist.

    Ein weiterer spannender Aspekt ist das Training der Modelle selbst. Wissenschaftler haben herausgefunden, dass während des Trainings von KI-Modellen Teile der Berechnungen unnötig schnell durchgeführt werden. Die Rechenarbeit bei KI-Trainings wird auf mehrere GPUs verteilt – allerdings ungleichmäßig. Das führt dazu, dass die weniger ausgelasteten GPU auf die stärker beanspruchten „warten“ müssen. Da diese Wartezeit ohnehin entsteht, ist die schnelle Berechnung unnötig. Durch eine angepasste Rechengeschwindigkeit ließe sich hier der Stromverbrauch reduzieren. Die passende Lösung haben die Forschenden direkt mitgeliefert: Die Open-Source-Software Perseus kontrolliert die GPU-Frequenz jeder einzelnen Berechnung und hält den Stromverbrauch so möglichst gering.

    Quellen: https://t3n.de/news/ki-stromverbrauch-energie-perseus-1656380/

    https://reset.org/sprachmodelle-nachhaltig-nutzen-sparsamer-genai-gruen/

  • NEUE FEATURES BEI KOSMO

    NEUE FEATURES BEI KOSMO

    Einige von euch haben es schon mit Spannung erwartet: KOSMO hat mit dem aktuellen Release neue Features bekommen. Was dahinter steckt, verraten wir euch heute.

    PDF-Viewer

    Wenn KOSMO eine Antwort generiert, werden auch immer die genutzten Quellen angegeben. Handelt es sich dabei um eine Website konntet ihr diese auch bisher schon per Klick einfach aufrufen. Das geht nun auch mit pdf-Dateien, die ihr KOSMO zur Verfügung gestellt habt. Ein Klick – und schon öffnet sich die Datei im PDF-Viewer. Die Textstellen, die KOSMO für die Antwort genutzt hat, werden farblich markiert. Außerdem könnt ihr die Datei direkt drucken, oder herunterladen. Die langwierige Suche nach Dokumenten hat damit ein Ende!

    Scheduled tasks

    Du stellst regelmäßig die gleichen Anfragen an KOSMO? Dann haben wir die perfekte Lösung für dich: scheduled tasks, also planbare Aufgaben. Ab sofort kannst du festlegen, was KOSMO wann und wie oft für dich tun soll. Vom Wetterbericht bis hin zu den aktuellsten Beiträgen deiner Lieblingswebsite – KOSMO fasst dir deine Updates in einem separaten Chat zusammen und du bleibst immer auf dem Laufenden.

    Push notifications

    Die neuesten Infos gibt es natürlich auch direkt aufs Smartphone. KOSMO informiert dich, wenn geplante Aufgaben erledigt wurden. So verpasst du mit Sicherheit keine wichtigen Infos mehr.

    E-Mail connection (beta)

    Aktuell noch als Betaversion, bald schon voll funktionsfähig: Die Anbindung deines E-Mailpostfachs. Hinterlege einfach deine Zugangsdaten und schon kannst du KOSMO nach dem Inhalt deiner E-Mails fragen. So werden deine E-Mails zur Informationsquelle. Für IMAP kann die Funktion bereits genutzt werden. Gmail-User brauchen noch etwas Geduld.

    Übrigens: Das E-Mail-Feature, sowie die bekannten Funktionen „Nextcloud“, „Dateien Speicher“, „Webseiten speichern“ und „Standardanweisungen“ findet ihr ab sofort im Menüpunkt „externe Ressourcen“.

    Und noch ein kleiner Vorgeschmack: Das nächste Release steht schon in den Startlöchern und ist für Ende Oktober geplant. Unter anderem mit Zusammenfassungen auf Knopfdruck – ihr dürft gespannt sein!

  • UNSER SPLITBLOG IM JULI: WENN CHATBOTS POLITISCH WERDEN

    UNSER SPLITBLOG IM JULI: WENN CHATBOTS POLITISCH WERDEN

    Der Splitblog im Juli – Wenn Chatbots politisch werden

    Diesen Monat zeigen wir euch, warum es wichtig ist die Herkunft von Chatbots und KI-Modellen zu hinterfragen und im Umgang mit ihnen kritisch zu bleiben. Den Vorschlag zu diesem Thema lieferte Mats aus unserem Backend-Team.

    Wie die Programmierung eines KI-Assistenten oder Chatbots das Antwortverhalten beeinflussen kann, hat Grok 4 in den vergangenen Wochen eindrucksvoll bewiesen. Ungebremst generierte Grok antisemitische und rassistische Äußerungen, die Schlagzeilen machten. Das Unternehmen xAI entschuldigte sich inzwischen und gab an, Grok sei laut Programmierung angewiesen „ehrlich“ zu antworten und solle „keine Angst davor haben, politisch korrekte Leute zu schockieren“. Nun, zumindest was letztere Anweisung angeht, kann man wohl von Zielerreichung sprechen. Und auch unter der Prämisse, das auch schlechte Presse gute Presse ist, hat Grok sicherlich seinen Zweck erfüllt. In jedem Fall aber sind die Schlagzeilen Anlass genug, sich ernsthaft mit den verschiedenen Herstellern und Anbietern von Chatbots und KI-Assistenten auseinanderzusetzen. Unabhängig davon, in welchem Bereich die Systeme eingesetzt werden sollen, ist eine genaue Überprüfung und ausgiebige Tests im Vorfeld dringend notwendig. Insbesondere, wenn Firmen sich in Ihrer Außenwirkung durch Chatbots vertreten lassen, können ansonsten schwerwiegende Imageschäden die Folge sein.

    Doch wie kann es überhaupt dazu kommen, dass KI-Assistenten sich zu solchen Äußerungen hinreißen lassen? Die Basis aller Sprachmodelle sind Trainingsdaten unterschiedlichsten Umfangs und unterschiedlichster Herkunft. Also massenweise Informationen, die zur Beantwortung zur Verfügung stehen. Wie und auf welche Art und Weise daraus nun Antworten generiert werden sollen ist Frage der Programmierung oder der individuellen Einstellungen. Es lässt sich also beispielsweise festlegen, dass bestimmte Informationsquellen vorrangig genutzt werden sollen oder dass die generierten Antworten besonders humoristisch, wissenschaftlich, lang oder kurz sein sollen. Im Fall von Grok gibt es laut dem Datenwissenschaftler Jeremy Howard auch Hinweise darauf, dass der Chatbot bei umstrittenen Themen häufig der Meinungen und Aussagen des xAI Eigentümers Elon Musk vertritt. Dies könne nach Aussage des Programmierers Simon Willison jedoch auf Musks prominente Rolle zurückzuführen sein.

    Ähnliche Trends wie aktuell bei Grok sind jedoch auch bei anderen Chatbots zu beobachten. Auch DeepSeek beantwortet eine Reihe politischer Fragen nicht neutral. Zum Teil werden die generierten Antworten kurz nach der Erstellung gelöscht und durch ein „Lassen Sie uns über etwas anderes reden“ ersetzt. Offenbar sind die Antworten des Bots bei Nutzung der englischsprachigen Version zumindest etwas neutraler als in der chinesischen Version. Ausgiebige Versuche mit DeepSeek offenbaren eine einprogrammierte „Selbstzensur“.

    Nicht unüblich ist es hingegen auch in Europa Chatbots gewisse ethische Standards mitzugeben bevor sie auf die Menschheit losgelassen werden. So antwortet auch unser Chatbot KOSMO, der auf einem Sprachmodell aus dem Hause Mixtral basiert, höflich ausweichend, wenn es beispielsweise um Gewalt und Kriminalität geht. Während dieses Verhalten jedoch wünschenswert ist, sollte die Objektivität bei der Wiedergabe von Fakten aus unserer Sicht jederzeit gewährleistet sein. Einen Beitrag dazu leistet der integrierte Quellnachweis, der Usern die Möglichkeit gibt, die genutzten Quellen zu überprüfen und zu bewerten.  

    Ganz ausschließen lässt sich ein gewisser Bias bei Sprachmodellen nie. Das Wissen eines Chatbots ist immer nur so umfangreich wie dessen Trainingsdaten und Zusatzinformationen und das Antwortverhalten häufig auch beeinflusst vom Userfeedback während des Finetunings. Auch User selbst können das Antwortverhalten mittels der eingegebenen Prompts (unbewusst) erheblich beeinflussen.

    Neben anderen Faktoren sollte also auch die Herkunft des genutzten Sprachmodells gründlich unter die Lupe genommen werden, bevor man sich zu sehr auf die Richtigkeit der Antworten verlässt.

  • UNSER SPLITBLOG IM JUNI: VeräNDert KI akademische Prüfungen?

    UNSER SPLITBLOG IM JUNI: VeräNDert KI akademische Prüfungen?

    Diesen Monat werfen wir einen Blick in die Zukunft und stellen uns die Frage, wie KI sich auf Prüfungen an Universitäten und Schulen auswirken wird. Dieser Themenvorschlag kommt von unserem Werkstudenten Vincent, der momentan ein Auslandssemester in Schweden leistet.

    Die Meldungen über KI-generierte Arbeiten von Schülern und Schülerinnen, sowie Studierenden häufen sich. Immer häufiger wird in den Medien die Frage diskutiert, wie es Bildungseinrichtungen möglich sein soll, zu erkennen, welche Texte tatsächlich von Menschen erstellt wurden. Trotz einiger Indizien, wie bestimmten Formulierungen, Schreibstilen und überdurchschnittlicher Fehlerfreiheit, lässt sich schon jetzt kaum zweifelsfrei bestimmen, ob ein bestimmter Text tatsächlich aus der Feder eines Menschen stammt. Durch immer besser werdende Sprachmodelle und Promptmethoden (bspw. „Formuliere so menschlich wie möglich und baue Fehler ein“) wird eine eindeutige Erkennung zunehmend schwieriger werden. Ein großes Problem, wenn man bedenkt, dass ein Großteil der akademischen Ausbildung auf dem Erstellen von Texten beruht. Sei es bei Bewerbungen, Prüfungen, Masterarbeiten oder Hausarbeiten – überall setzen Prüfende auf textbasierte Verfahren. Doch das Risiko ist hoch, dass diese Prüfverfahren langfristig nicht mehr zuverlässig funktionieren. Detektorensoftware, die verspricht künstlich erstellte Texte zu erkennen, kann zwar Hinweise liefern, ist aber selbst nicht zuverlässig genug und lässt sich mit oft einfachen Mitteln umgehen. Und besonders brisant: Besonders von Nicht-Muttersprachlern verfasste Texte werden von diesen Programmen häufig fälschlich als KI-erstellt erkannt. Die Gefahr von Diskriminierung bei Auswahlverfahren kann dadurch erheblich steigen. Zumal es nicht nur schwer ist, zu beweisen, dass ein Text von einer KI erstellt wurde, sondern auch, dass das Gegenteil der Fall ist.

    Doch wie können Hochschulen und andere Bildungseinrichtungen damit umgehen? Mündliche Prüfverfahren könnten in den meisten Fällen deutlich zeigen, ob jemand tatsächlich selbst nachgedacht und verstanden hat. Nur sind mündliche Prüfungen mit enormen Zeit- und Personalaufwand verbunden und können nicht ohne weiteres den gleichen Wissensumfang abfragen wie schriftliche Prüfungen.

    Der Großteil der Bildungseinrichtungen setzt derzeit noch auf ein schlichtes Verbotsprinzip. Doch einige Institutionen gehen bereits neue Wege. Till Krause von der Universität Landshut beispielsweise, gestattet Studierenden, KI als Quelle aktiv zu nutzen – solange dies deutlich gekennzeichnet wird. Es wird also eine präzise Angabe des genutzten Sprachmodells und des verwendeten Prompts gefordert. Denn bei allen Herausforderungen, die der Einsatz von KI an Bildungseinrichtungen mit sich bringt, bietet KI vor allem eines: einen unfassbar umfangreichen Schatz an Informationen, die hervorragend zum Lernen genutzt werden können und eine fantastische Grundlage für die Entwicklung eigener Ideen und Gedanken bieten.

    Auch an der Wirtschaftsuniversität in Prag geht man pragmatisch mit dem Einsatz von KI um. Der dortige BWL-Studiengang seit Herbst 2024 muss keine herkömmliche Bachelorarbeit mehr schreiben. Stattdessen wird es Projektarbeiten geben, deren Ergebnisse bewertet werden. Viele halten dieses Vorgehen für sinnvoller und praxisnaher als die bisherigen Arbeiten. Ein durchaus sinnvoller Ansatz, besonders für Studiengänge, bei denen es nicht in erster Linie um das einwandfreie und kunstvolle Schreiben geht. Vielleicht liegt hier sogar eine Chance die Talente von Menschen, die beispielsweise eine Rechtschreibschwäche haben, deutlicher hervorzubringen.

    Fakt ist, akademische Prüfverfahren werden geändert werden müssen. KI ist –ähnlich wie andere Technologische Mittel- schon jetzt in den Alltag von Schülerinnen und Schülern, sowie Studierenden eingezogen. Nun braucht es Möglichkeiten, menschliches Wissen auf andere Arten zu prüfen.

    Einen absolut hörenswerten Podcast zu dem Thema gibt es hier: https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/ki-or-not-ki-koennen-wir-ihre-texte-noch-enttarnen/tagesschau/13779441/

  • Hier kommt EVA

    Hier kommt EVA

    Wir haben aufregende Neuigkeiten! Seit Anfang des Jahres arbeiten wir an einem neuen Projekt. Gemeinsam mit vier Vereinen aus Schleswig-Holstein haben wir das Projekt „Chatbot trifft Verwaltung: Intelligente Dialogsysteme als Zukunftslösung für gemeinnützige Organisationen“ ins Leben gerufen.

    Gemeinwohlorientierte Organisationen stehen häufig vor ebenso vielen bürokratischen Hürden wie Unternehmen. Sie sind mit administrativen Aufgaben konfrontiert, die einen Großteil der zur Verfügung stehenden Zeit in Anspruch nimmt. Gleichzeitig leben diese Organisation vom Engagement ehrenamtlich tätiger Menschen und verfügen selten über die Mittel für kostspielige Software. Chatbots können hier Abhilfe schaffen und die Vereinsarbeit erleichtern. Sei es bei der Bereitstellung vereinsinterner Informationen, bei der Formulierung von Anschreiben oder beim Onboarding neuer Mitglieder. Vorhandenes Wissen muss nicht mehr mühsam manuell recherchiert werden, sondern kann in natürlicher Sprache bereitgestellt werden.

    Der Einsatz von Chatbots erfordert aber die Berücksichtigung der KI-Verordnung und aller relevanten Datenschutzregelungen. Auch hier können sich einige Hindernisse ergeben, insbesondere für fachfremde Personen. Mit unserer Projektidee bieten wir gemeinwohlorientierten Organisationen vollständige Datensouveränität und garantieren die Einhaltung sämtlicher relevanter Richtlinien.

    Mit unserer Idee sind wir an das Programm Civic Innovation Platform herangetreten und konnten dort überzeugen. Bis Ende 2026 wird unser Projekt durch das Bundesministerium für Arbeit und Soziales gefördert.

    Gemeinsam mit gemeinnützigen Organisationen aus den verschiedensten Bereichen erarbeiten wir eine open source Lösung, die künftig auch anderen Vereinen zur Verfügung stehen soll. Mit EVA (kurz für elektronische Verwaltungsassistenz) entsteht ein Chatsystem, das speziell auf die Bedürfnisse gemeinnütziger Vereine und Organisationen ausgerichtet ist. Es wird möglich sein, EVA selbst zu hosten und damit anbieterunabhängig und kostensparend zu agieren. Tatkräftige Unterstützung bekommen wir vom Kinderschutzbund Ostholstein, dem Ostsee-Holstein-Tourismus, dem Landesverband der Kleingartenvereine Schleswig-Holsteins und InMotion. Dank der vielfältigen Tätigkeitsbereiche dieser Verbände können wir bei der Entwicklung von EVA die unterschiedlichsten Anforderungen und Bedarfe berücksichtigen und gemeinsam ein Dialogsystem erarbeiten, dass effizient und passgenau ist.

    Weitere Informationen findet ihr unter: https://www.civic-innovation.de/projektfoerderung/foerderprogramme/foerderrunde-2025-26#page-2254

  • UNSER SPLITBLOG IM MAI: WIE KI DIE CHEMIE REVOLUTIONIERT

    UNSER SPLITBLOG IM MAI: WIE KI DIE CHEMIE REVOLUTIONIERT

    Im Wonnemonat Mai befassen wir uns mit einem Themenvorschlag unseres „Teamlead Entwicklung“ Bartosz und der Frage, wie KI die Chemie verändern kann.

    In unserem Alltag ist künstliche Intelligenz bereits fester Bestandteil in vielen Bereichen. Wir arbeiten mit Sprachmodellen und Chatbots und nutzen smarte Haushaltsgeräte. Welche ungeahnten Möglichkeiten sich durch den Einsatz von KI jedoch noch ergeben, ist uns oft nicht wirklich bewusst. Unser aktuelles Thema zeigt, dass die Anwendungsmöglichkeiten von KI jedoch weit über „nice to have“ Gadgets hinausgehen.

    Wer sich mit der Vergabe des Nobelpreises interessiert, hat es vielleicht mitbekommen. Der Chemie-Nobelpreis des Jahres 2024 ging zur Hälfte an David Baker, zur anderen Hälfte an Demis Hassabis und John Jumper. Die Arbeit der drei befasst sich mit dem Design von Proteinen, sowie der Vorhersage derer Strukturen – mit Hilfe von künstlicher Intelligenz.

    Proteine sind biologische Makromoleküle, die aus Aminosäuren aufgebaut sind. Diese wiederum sind durch Peptidbindungen verknüpft. Proteine sind in jeder Zelle vorhanden und haben im menschlichen Körper verschiedenste lebenswichtige Funktionen. Sie dienen als Hormone, Signalstoffe, Antikörper und Gewebebausteine.

    Der Aufbau von Proteinen kann in mehrere Ebenen unterteilt werden.

    Primärstruktur: Dies ist die einfache Abfolge der Aminosäuren in der Kette. Jede Aminosäure hat eine spezifische Position, und diese Reihenfolge ist entscheidend für die Funktion des Proteins.

    Sekundärstruktur: Hier falten sich die Aminosäureketten in regelmäßige Muster, wie Spiralen (Helices) oder gefaltete Blätter (Beta-Faltblätter). Diese Strukturen helfen, das Protein stabil zu halten.

    Tertiärstruktur: Die gesamte Aminosäurekette faltet sich weiter zu einer komplexen dreidimensionalen Form. Diese Form ist entscheidend für die Funktion des Proteins, da sie bestimmt, wie das Protein mit anderen Molekülen interagiert.

    Quartärstruktur: Einige Proteine bestehen aus mehreren Untereinheiten, die zusammen eine größere Struktur bilden. Diese Untereinheiten können sich zu einem funktionellen Komplex zusammenfügen.

    Hassabis und Jumper ist es gelungen, ein Modell zur Vorhersage der Strukturen von Proteinen namens „AlphaFold2“ zu entwickeln. Beide arbeiten für die Google-Tochterfirma DeepMind. Mit dem Modell ist es möglich anhand der Aminosäureabfolge eines Proteins dessen dreidimensionale Struktur genau vorherzusagen. Dies war bisher nur mit dem aufwändigen Verfahren der Röntgenkristallographie möglich. Mit ihrer Hilfe wurde im Jahr 1953 die Doppelhelixstruktur der DNA entschlüsselt. Um eine Röntgenkristallographie vorzunehmen muss das betreffende Protein jedoch zunächst in kristalliner Form vorliegen. Durch „AlphaFold2“ kann die dreidimensionale Form eines Proteins nun also berechnet werden ohne dass eine Laboranalyse notwendig ist.

    Wohl bemerkenswertester Bestandteil der Arbeit ist die Entwicklung einer vollkommen neuen Proteinart. Etwas, das bisher als annähernd unmöglich galt. Mit der unter Bakers Leitung bereits in den 90er Jahren entwickelten Software „Rosetta“ können mit Hilfe von „AlphaFold2“ nun erstmals völlig neue Proteine konstruiert werden. Es wird also möglich, Proteine mit speziellen Funktionen zu erzeugen. Diese könnten beispielsweise für die zielgerichtete Entwicklung von Medikamenten oder Impfstoffen genutzt werden. Auch die Erzeugung neuer Nanomaterialien ist denkbar.

    Der Proteinforschung haben sich also durch KI völlig neue Möglichkeiten geöffnet, die unsere Zukunft entscheidend beeinflussen können.