Die Branche der künstlichen Intelligenz (KI) verändert und entwickelt sich rasant. Wir erleben einige atemberaubende Fortschritte und innovative Produkte, die die Grenzen dessen erweitern, was wir für möglich gehalten haben.

Wir haben diese Woche einige beeindruckende und hochmoderne Produkte geliefert, die verschiedene Sektoren revolutionieren und die persönliche Produktivität steigern werden.

OpenAI hat offiziell den ChatGPT-Websuche Funktion, mit der Suchergebnisse mit relevanten Weblinks schnell und in Echtzeit abgerufen werden können. Sie müssen keine anderen Weberweiterungen oder Apps mehr verwenden, um diese Funktion zu nutzen.

Alle Suchergebnisse enthalten auch Quellenangaben. ChatGPT liefert außerdem ausführlichere Antworten, indem es Kontext in die Suchanfragen einbezieht.

Darüber hinaus kann ChatGPT durch Herunterladen der Chrome-Browsererweiterung als Standardsuchmaschine festgelegt werden. Auf diese Weise können Sie es schnell und direkt verwenden!

So verwenden Sie die ChatGPT-Websuche Funktion, wenn Sie kein ChatGPT Plus-Abonnent sind

OpenAI hat angekündigt, dass ChatGPT Search nur für Benutzer von ChatGPT Plus und Team zugänglich ist, die es sofort verwenden können. Bezahlte Benutzer müssen nicht warten.

OpenAI plant jedoch, den Zugang in den kommenden Monaten für kostenlose Benutzer freizugeben.

Warten auf den Rollout: Wenn Sie kein zahlender Abonnent sind, müssen Sie warten, bis OpenAI die Funktion auf kostenlose Benutzer ausweitet, was in den kommenden Monaten erwartet wird.

Tragen Sie sich in die Warteliste ein: Erwägen Sie, sich, sofern verfügbar, in eine Warteliste einzutragen, die OpenAI möglicherweise für den frühen Zugriff auf Funktionen wie die ChatGPT-Suche bereitstellt.

Regelmäßig prüfen: Behalten Sie Ankündigungen von OpenAI bezüglich Updates im Auge, wann die Suchfunktion für kostenlose Benutzer verfügbar sein wird.

Wie stellt ChatGPT die Genauigkeit seiner Websuchergebnisse sicher?

ChatGPT stellt die Genauigkeit seiner Suchergebnisse durch mehrere Methoden sicher:

Datenabruf in Echtzeit: Es greift über Suchmaschinen auf aktuelle Informationen zu, sammelt Inhalte aus seriösen Quellen und zitiert diese.

Auswahlkriterien: ChatGPT priorisiert relevante, maßgebliche und aktuelle Quellen, um Benutzeranfragen abzugleichen.
Suchverfeinerung: Wenn anfängliche Ergebnisse fehlen, werden die Abfragen verfeinert, um die Relevanz zu verbessern.
Benutzerfeedback: Es passt sich auf der Grundlage von Benutzerkorrekturen an, um die Antworten im Laufe der Zeit zu verbessern.

HeyGen hat eine neue Funktion zur Erstellung digitaler Menschen eingeführt

HeyGen hat eine neue Funktion eingeführt, mit der Benutzer digitale Menschen nur mithilfe von Fotos erstellen können, ohne zu filmen.

Sie können Ihr eigenes Foto hochladen oder eine Textaufforderung eingeben, um ein virtuelles Charakterbild zu generieren, mit dem Sie Ihren eigenen digitalen KI-Video-Avatar trainieren können.

Je mehr Referenzbilder Sie von der Figur hochladen, desto größer ist die Konsistenz der Gesichtszüge in den generierten Bildern.

Diese digitalen Menschen haben natürliche Körperbewegungen, anpassbare Kleidung, Posen und austauschbare Hintergründe und Sie können Geschlecht, Alter und ethnische Zugehörigkeit auswählen.

Sie können das Skript bearbeiten, verschiedene Stimmen und emotionale Ausdrücke auswählen und das Video in kurzer Zeit schnell erstellen.

Suno hat Personas eingeführt

Suno hat eine neue Funktion namens Personas eingeführt.

Benutzer können die Kernmerkmale eines Songs wie Gesang, Stil und Atmosphäre speichern und diese dann in neuen Kreationen wiederverwenden.

Diese Funktion soll Ihnen dabei helfen, Ihren einzigartigen Musikstil beizubehalten.

So erstellen Sie eine Persona: Wählen Sie ein Lied aus, das Ihnen gefällt, klicken Sie auf „Erstellen“ und erstellen Sie dann eine Persona. Fügen Sie Liedtext und Stil hinzu: Benutzer können Liedtext und Stil wie bei normalen Kreationen hinzufügen.

Öffentliche und private Einstellungen: Sie können eine Persona als öffentlich oder privat festlegen. Öffentliche Personas haben eine eigene Seite, können von anderen Benutzern verwendet werden und erscheinen in Ihrer Bibliothek und Ihrem persönlichen Profil.

GitHub hat weitere KI-Modelle in GitHub Copilot eingeführt

GitHub hat angekündigt, weitere KI-Modelle in GitHub Copilot einzuführen, um die Optionen und Anpassungsmöglichkeiten der Entwickler zu erweitern.

Zu den neuen Modellen gehören:

Claude 3.5 Sonett
Gemini 1.5 Pro
o1-preview und o1-mini

GitHub hat außerdem GitHub Spark eingeführt, ein Tool zum Erstellen von Anwendungen vollständig in natürlicher Sprache.

Sie müssen keine komplexen Bereitstellungstechniken wie die Konfiguration von Servern oder Datenbanken kennen.

GitHub Spark führt die gesamte Cloud-Einrichtung und Ressourcenzuweisung automatisch im Hintergrund durch, sodass selbst Anfänger Web-Anwendungen vollständig in natürlicher Sprache erstellen können.

Mit anderen Worten: Sie müssen ihm nur sagen, „was Sie tun möchten“, und er stellt Ihnen eine funktionsfähige App zur Verfügung, wodurch der Vorgang so einfach wird wie eine Unterhaltung.

Stability AI hat das Modell Stable Diffusion 3.5 Medium veröffentlicht.

Es ist sowohl für kommerzielle als auch nicht-kommerzielle Benutzer kostenlos erhältlich. Mit einem Modell mit 2,5 Milliarden Parametern ist es speziell für Verbraucherhardware konzipiert.

Das Modell benötigt nur 9,9 GB VRAM. Es kann auf den meisten Standardgrafikkarten mit Consumer-Hardware ausgeführt werden.

Es kann qualitativ hochwertige Bilder in mehreren Auflösungen erzeugen und erzielt damit bessere Ergebnisse als andere mittelgroße Modelle.

Laut der Analyse von Stable AI ist Stable Diffusion 3.5 Large in puncto schneller Haftung marktführend und kann es in puncto Bildqualität mit viel größeren Modellen aufnehmen.

Wie wird Stable Diffusion 3.5 verwendet?

Installationsschritte für die lokale Verwendung


Ab sofort können Sie die Modelle Stable Diffusion 3.5 Large und Stable Diffusion 3.5 Large Turbo herunterladen unter Umarmendes Gesicht und der Inferenzcode auf GitHub. Und dann können Sie es auf Ihrem Computer oder anderer Hardware ausführen.

Bevor Sie es auf dem Computer ausführen können, sollten Sie die Voraussetzungen einrichten und die erforderlichen Bibliotheken installieren.

Während Sie die erforderlichen Python-Bibliotheken installieren, können Sie Stable Diffusion lokal ausführen.

Online-Zugang

Verwenden von ComfyUI

ComfyUI bietet eine benutzerfreundliche Oberfläche zur Verwaltung Ihrer Arbeitsabläufe mit Stable Diffusion 3.5. Sie können verschiedene Dateien in die Oberfläche ziehen und Bildgenerierungsaufgaben problemlos ausführen.

Verwenden von umarmenden Gesichtsräumen

Besuchen Sie Hugging Face Spaces, um stabile Diffusionsmodelle ohne Installationsanforderungen direkt in Ihrem Browser auszuführen.

Für mehr Benutzer: Viele Apps und Websites werden bald das neueste Stable Diffusion 3.5-Modell zur Bildgenerierung integrieren, also bleiben Sie dran für Updates!

Ultralight-Digital-Human: Ein ultraleichtes digitales Menschmodell kann auf einem Mobiltelefon ausgeführt werden

Ultraleicht-Digital-Mensch: ein ultraleichtes digitales Menschmodell, das Echtzeitbedienung auf Mobilgeräten unterstützt.

Der Algorithmus des Modells ist so optimiert, dass er auch auf Geräten mit geringem Stromverbrauch reibungslos läuft.
Zum Abschließen der Schulung sind nur 3 bis 5 Minuten Video erforderlich.

Stellen Sie sicher, dass in jedem Einzelbild des Videos das gesamte Gesicht der Person zu sehen ist und dass der Ton klar und ohne Rauschen ist. Legen Sie das Video in einen neuen Ordner.

Darüber hinaus kann das Modell durch optimierte Datenfluss- und Inferenzprozesse Eingabedaten (wie Video und Audio) in Echtzeit verarbeiten und so sofortige digitale menschliche Reaktionen ermöglichen.

Der KI-Videoplattform D-ID neue digitale Tools für den Menschen eingeführt


Die KI-Videoplattform D-ID hat zwei neue digitale menschliche Werkzeuge—Express und Premium+ wurden speziell für die Inhaltserstellung entwickelt und sollen Unternehmen den Einsatz realistischerer virtueller Menschen in Bereichen wie Marketing, Vertrieb und Kundensupport ermöglichen.

Zur Generierung des virtuellen Menschen von Express ist lediglich eine einminütige Videoschulung erforderlich, und er kann mit den Kopfbewegungen des Benutzers synchronisiert werden.

Der virtuelle Mensch Premium+ erfordert ein längeres Schulungsvideo, kann jedoch Hand- und Rumpfbewegungen ausführen und so realistischere menschliche Interaktionen ermöglichen.

Diese Tools erleichtern die Erstellung virtueller Menschenvideos, senken die Geschäftskosten im Marketing und bieten eine breitere Anwendbarkeit.

Google Gemini API hat „Search Anchoring“ eingeführt

Google hat die neue Funktion „Google Search Anchoring“ in seiner Gemini API und seinem Google AI Studio eingeführt. Sie ist sehr bequem zu verwenden.

Diese Funktion nutzt Echtzeitdaten der Google-Suche, um den Benutzern genauere und aktuellere Informationen sowie unterstützende Links und Suchvorschläge bereitzustellen und so die KI-Antworten zuverlässiger zu machen.

Durch die Nutzung der neuesten durch Recherchen erhaltenen Nachrichtendaten werden Fehlinformationen reduziert.
Durch die Echtzeitsuche werden die aktuellsten Informationen abgerufen, sodass bei bestimmten Suchergebnissen bessere Antworten möglich sind.

Die Antworten enthalten Links zu Informationsquellen, die es den Benutzern erleichtern, die Glaubwürdigkeit der Informationen zu überprüfen.

Claude für Desktop

Anthropologische KI hat eine Claude-Desktop-App erstellt! Jetzt können Sie auf Mac und Windows verfügbar sein.

Als Ihr KI-AssistentClaude kann Ihnen helfen, tiefergehende Arbeiten schneller und kreativer auszuführen.

Sie können Claude jetzt auf jedem Gerät verwenden, sich mit Claude unterhalten und sich von Claude dabei helfen lassen, Antworten auf Fragen zu finden und den Inhalt von Bildern zu analysieren.

Claude hat gelernt, Diagramme und Grafiken in PDFs zu verstehen!


Anthropic führte die Möglichkeit ein, Claude-PDFs in der Anthropic-API zu senden.
Mit der neuen Betaversion der PDF-Unterstützung können Sie eine PDF-Datei direkt in Ihre API-Anfrage einbinden. Das Lesen von Forschungsarbeiten ist jetzt einfacher.

Das neue Claude 3.5 Sonnet-Modell unterstützt jetzt PDF-Eingabe und versteht sowohl Text- als auch visuelle Inhalte in Dokumenten.

Sie können diese Funktion in der Funktionsvorschau erleben.

Sie können alle gewünschten spezifischen Fragen zum Inhalt der PDF-Datei stellen und Claude kann Ihre Fragen basierend auf der Bildlesefunktion der Datei beantworten.

Wie funktioniert die PDF-Unterstützung?

  • Das System wandelt jede Seite des PDF in ein Bild um.
  • Durch die Analyse von Text und Bildern erlangt das System ein besseres Verständnis des PDFs.
  • Andere Claude-Funktionen können gleichzeitig verwendet werden.

Wie kann ich die Visual PDF-Funktion in Claude aktivieren?

Um die Funktion „Visuelle PDFs“ in Claude zu aktivieren, gehen Sie folgendermaßen vor:

  1. Greifen Sie auf die Einstellungen zu:
    Öffnen Sie die Claude-Oberfläche und suchen Sie nach einem Flaschensymbol oder einem Einstellungsmenü.
  2. Visuelle PDFs aktivieren:
    Klicken Sie auf das Flaschensymbol, navigieren Sie zur Option „Visuelle PDFs“ und aktivieren Sie sie. Dadurch kann Claude Bilder und visuelle Elemente in PDF-Dokumenten verarbeiten und interpretieren.
  3. Laden Sie Ihr PDF hoch:
    Sobald die Funktion aktiviert ist, können Sie ein PDF-Dokument hochladen, indem Sie es in das Chatfenster ziehen oder die Upload-Schaltfläche verwenden. Das ist ganz einfach und bequem.
  4. Interagiere mit Claude:
    Nachdem Sie die PDF-Dateien hochgeladen haben, können Sie Claude Fragen zu den Texten und Bildern in der PDF-Datei stellen und so Ihre Interaktion mit komplexen Dokumenten verbessern. So können Sie Dokumente bequemer lesen und Ihre Effizienz steigern!

Ähnliche Beiträge