Deepfake-Erkennung
Forscher der University at Buffalo nutzen ChatGPT und Co zur Entlarvung von Bildern, die mithilfe Künstlicher Intelligenz (KI) erstellt wurden. Das Team hat große Sprachmodelle (LLMs) zur Erkennung von Fälschungen menschlicher Gesichter eingesetzt, darunter ChatGPT von OpenAI und Gemini von Google.
Anzeige
CVE-2024-5565
Im Rahmen der fortlaufenden Erforschung dieser Technologien hat das Team von JFrog Security eine bedeutende Schwachstelle in der Vanna.AI-Bibliothek aufgedeckt.
Anzeige
LLMs
Aqua Security stellt neue Funktionen vor, die speziell für die Absicherung der Entwicklung und des Betriebs von generativen KI-Anwendungen entwickelt wurden, die Large Language Models (LLMs) nutzen. Da immer mehr Unternehmen LLMs einsetzen, werden neue Angriffsvektoren in ihre Anwendungen und Abläufe eingeführt.
Analyse von Trend Micro
Generative KI-Tools haben das Potenzial, in naher Zukunft wirklich disruptive Cyberangriffe zu ermöglichen. Doch gibt es schon heute neue kriminelle LLMs oder Angebote von ChatGPT-ähnlichen Fähigkeiten in Hacking-Software? Eine Analyse von Trend Micro zeigt die neuesten Entwicklungen und beleuchtet, welche Bedrohungen in der nahen Zukunft zu erwarten sind.
Sichere Einführung von Künstlicher Intelligenz
In den letzten 18 Monaten, seit der Veröffentlichung von ChatGPT, hat Künstliche Intelligenz (KI) einen selten gesehenen Hype ausgelöst. Im Mittelpunkt dieser Begeisterung steht insbesondere die aktuell vor allem auf Large Language Models (LLMs) basierende generative KI.
Anzeige
Business GPT
Das KI-Modell „Business GPT“ der Telekom ist eine geeignete Alternative zu ChatGPT, damit sensible Unternehmensdaten nicht an unbefugte Dritte gelangen und Mitarbeiter trotzdem von den Potenzialen generativer KI profitieren können.
Mind over Machine
Im Laufe unserer Menschheitsgeschichte haben transformative technologische Innovationen immer wieder zu beeindruckenden Entwicklungssprüngen geführt, die sowohl unsere Gesellschaften, Wirtschaftsräume, Politik und das tägliche Leben auf zuvor unvorstellbare Weise umgestaltet haben.
Large Language Models (LLMs)
Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Anzeige

Veranstaltungen

10.09.2024
 - 11.09.2024
Wien
10.09.2024
 - 11.09.2024
Köln
08.10.2024
 - 09.10.2024
Darmstadt
Stellenmarkt
  1. (Ausbildung) Kfz Prüfingenieur Fahrzeugprüfung (m/w/d)
    DEKRA Automobil GmbH, Niedernhall
  2. Entwicklungsingenieur (m/w/d) für faseroptische Sensoren
    Northrop Grumman LITEF GmbH, Freiburg
  3. Wissenschaftliche*r Mitarbeiter*in (m/w/d)
    Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz
  4. Sachbearbeiterin/Sachbearbeiter Fachadministration, Anwendungsbetreuung und Statistik (w/m/d)
    Landkreis Zwickau, Werdau
Zum Stellenmarkt
Anzeige

Meistgelesene Artikel

Anzeige
Anzeige
Anzeige
Anzeige