“State of Data & AI”
Unternehmen auf der ganzen Welt drängen darauf, ihre Daten- und KI-Strategien zu demokratisieren. Nur 18 Monate nach der Einführung von ChatGPT ist GenAI in den Mainstream-Diskursen angekommen.
CVE-2024-5565
Im Rahmen der fortlaufenden Erforschung dieser Technologien hat das Team von JFrog Security eine bedeutende Schwachstelle in der Vanna.AI-Bibliothek aufgedeckt.
LLMs
Aqua Security stellt neue Funktionen vor, die speziell für die Absicherung der Entwicklung und des Betriebs von generativen KI-Anwendungen entwickelt wurden, die Large Language Models (LLMs) nutzen. Da immer mehr Unternehmen LLMs einsetzen, werden neue Angriffsvektoren in ihre Anwendungen und Abläufe eingeführt.
Analyse von Trend Micro
Generative KI-Tools haben das Potenzial, in naher Zukunft wirklich disruptive Cyberangriffe zu ermöglichen. Doch gibt es schon heute neue kriminelle LLMs oder Angebote von ChatGPT-ähnlichen Fähigkeiten in Hacking-Software? Eine Analyse von Trend Micro zeigt die neuesten Entwicklungen und beleuchtet, welche Bedrohungen in der nahen Zukunft zu erwarten sind.
Sichere Einführung von Künstlicher Intelligenz
In den letzten 18 Monaten, seit der Veröffentlichung von ChatGPT, hat Künstliche Intelligenz (KI) einen selten gesehenen Hype ausgelöst. Im Mittelpunkt dieser Begeisterung steht insbesondere die aktuell vor allem auf Large Language Models (LLMs) basierende generative KI.
Business GPT
Das KI-Modell „Business GPT“ der Telekom ist eine geeignete Alternative zu ChatGPT, damit sensible Unternehmensdaten nicht an unbefugte Dritte gelangen und Mitarbeiter trotzdem von den Potenzialen generativer KI profitieren können.
Mind over Machine
Im Laufe unserer Menschheitsgeschichte haben transformative technologische Innovationen immer wieder zu beeindruckenden Entwicklungssprüngen geführt, die sowohl unsere Gesellschaften, Wirtschaftsräume, Politik und das tägliche Leben auf zuvor unvorstellbare Weise umgestaltet haben.
Adaptive Funktionen
Proofpoint stellt zwei Innovationen vor. Mit diesen will das Unternehmen effektiven End-to-End-E-Mail-Schutz bieten.
Large Language Models (LLMs)
Forscher des Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie ChatGPT, Claude 3 Opus und Co in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.
Veranstaltungen
Stellenmarkt
- (Ausbildung) Kfz Prüfingenieur Fahrzeugprüfung (m/w/d)
DEKRA Automobil GmbH, Niedernhall - Entwicklungsingenieur (m/w/d) für faseroptische Sensoren
Northrop Grumman LITEF GmbH, Freiburg - Wissenschaftliche*r Mitarbeiter*in (m/w/d)
Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Mainz - Sachbearbeiterin/Sachbearbeiter Fachadministration, Anwendungsbetreuung und Statistik (w/m/d)
Landkreis Zwickau, Werdau
Meistgelesene Artikel
5. Juli 2024
28. Juni 2024
18. Juni 2024