Industrien for kunstig intelligens (AI) er i rask endring og utvikling. Vi er vitne til noen fantastiske fremskritt og innovative produkter som flytter grensene for det vi trodde var mulig.

Vi har levert noen imponerende og banebrytende produkter som er satt til å revolusjonere ulike sektorer og øke personlig produktivitet denne uken.

OpenAI har offisielt lansert ChatGPT-nettsøk funksjon, som raskt og i sanntid kan hente søkeresultater med relevante nettlenker. du trenger ikke å bruke andre nettutvidelser eller apper for å oppnå denne funksjonen lenger.

Alle søkesvar inkluderer også kildehenvisninger. ChatGPT vil også gi mer dyptgående svar ved å inkludere kontekst i søk.

I tillegg, ved å laste ned Chrome-nettleserutvidelsen, kan ChatGPT angis som standard søkemotor. På denne måten vil du kunne bruke den raskt og direkte!

Hvordan bruke ChatGPT-nettsøk funksjon hvis du ikke er en ChatGPT Plus-abonnent

OpenAI har annonsert at ChatGPT Search kun er tilgjengelig for ChatGPT Plus og Team-brukere, som kan bruke det umiddelbart. Ingen betalte brukere trenger å vente litt tid.

Imidlertid planlegger OpenAI å rulle ut tilgang til gratisbrukere i løpet av de kommende månedene

Vent på utrulling: Hvis du ikke er en betalt abonnent, må du vente på at OpenAI utvider funksjonen til gratisbrukere, noe som forventes i løpet av de kommende månedene.

Bli med på ventelisten: Hvis tilgjengelig, vurder å bli med på en hvilken som helst venteliste som OpenAI kan gi for tidlig tilgang til funksjoner som ChatGPT Search.

Sjekk regelmessig: Hold øye med kunngjøringer fra OpenAI angående oppdateringer om når søkefunksjonen vil være tilgjengelig for gratisbrukere.

Hvordan sikrer ChatGPT nøyaktigheten til nettsøkeresultatene?

ChatGPT sikrer nøyaktigheten av søkeresultatene gjennom flere metoder:

Datainnhenting i sanntid: Den får tilgang til oppdatert informasjon gjennom søkemotorer, samler innhold fra anerkjente kilder og siterer dem.

Utvalgskriterier: ChatGPT prioriterer relevante, autoritative og nyere kilder for å matche brukerforespørsler.
Søkeavgrensning: Hvis de første resultatene mangler, avgrenser den spørringene for å forbedre relevansen.
Tilbakemelding fra brukere: Den tilpasser seg basert på brukerkorrigeringer for å forbedre svarene over tid.

HeyGen lanserte en ny funksjon for å skape digitale mennesker

HeyGen har lansert en ny funksjon som lar brukere lage digitale mennesker ved å kun bruke bilder uten å filme.

Du kan laste opp ditt eget bilde eller skrive inn en tekstmelding for å generere et virtuelt karakterbilde, som kan brukes til å trene din egen AI-video digital avatar.

Jo flere referansebilder du laster opp av karakteren, desto større er konsistensen av ansiktstrekk i de genererte bildene.

Disse digitale menneskene har naturlige kroppsbevegelser, tilpassbare klær, positurer og utskiftbare bakgrunner, og du kan velge kjønn, alder og etnisitet.

Du kan redigere manuset, velge forskjellige stemmer og følelsesmessige uttrykk, og raskt generere videoen på kort tid.

Suno har lansert Personas

Suno har lansert en ny funksjon kalt Personas.

Den lar brukere lagre kjerneegenskapene til en sang, for eksempel vokal, stil og atmosfære, som deretter kan gjenbrukes i nye kreasjoner.

Denne funksjonen er utviklet for å hjelpe deg å opprettholde din unike musikalske stil.

Slik lager du en persona: Velg en sang du liker, klikk på "Create" og lag deretter en persona. Legg til tekster og stil: Brukere kan legge til tekster og stil akkurat som i vanlige kreasjoner.

Offentlige og private innstillinger: Du kan velge å angi en Persona som offentlig eller privat. Offentlige Personas vil ha sin egen side, kan brukes av andre brukere, og vil vises i biblioteket og din personlige profil.

GitHub introduserte flere AI-modeller i GitHub Copilot

GitHub kunngjorde at den introduserer flere AI-modeller i GitHub Copilot for å forbedre utviklernes alternativer og tilpasningsmuligheter.

De nye modellene inkluderer:

Claude 3.5 sonett
Gemini 1.5 Pro
o1-forhåndsvisning og o1-mini

GitHub har også lansert GitHub Spark, et verktøy for å bygge applikasjoner helt med naturlig språk.

Du trenger ikke kjenne til komplekse distribusjonsteknikker som å konfigurere servere eller databaser.

GitHub Spark vil automatisk fullføre alt skyoppsett og ressursallokering i bakgrunnen, slik at selv nybegynnere kan lage nettapplikasjoner helt gjennom naturlig språk.

Med andre ord, du trenger bare å fortelle den "hva du vil gjøre", og den vil gi deg en funksjonell app, noe som gjør prosessen like enkel som en samtale.

Stability AI har gitt ut Stable Diffusion 3.5 Medium-modellen.

Den er tilgjengelig gratis for både kommersielle og ikke-kommersielle brukere. Med en modell på 2,5 milliarder parametere, er den spesielt designet for forbrukermaskinvare.

Modellen krever kun 9,9 GB VRAM. Den kan kjøres på de fleste standard grafikkort med forbrukermaskinvare.

Den kan generere bilder av høy kvalitet med flere oppløsninger, og gi resultater som er overlegne andre mellomstore modeller.

I følge Stability AI-analyse leder Stable Diffusion 3.5 Large markedet når det gjelder rask overholdelse og konkurrerer med mye større modeller i bildekvalitet.

Hvordan bruker jeg Stable Diffusion 3.5?

Installasjonstrinn for lokal bruk


Nå kan du laste ned Stable Diffusion 3.5 Large og Stable Diffusion 3.5 Large Turbo-modellene fra Klemende ansikt og slutningskoden på GitHub. Og så kan du kjøre den på datamaskinen eller annen maskinvare.

Før du kan kjøre den på datamaskinen. Du bør sette opp forutsetningene og installere viktige biblioteker.

Mens du installerer Required Python Libraries, kan du kjøre stabil diffusjon lokalt.

Online tilgang

Bruker ComfyUI

ComfyUI tilbyr et brukervennlig grensesnitt for å administrere arbeidsflytene dine med Stable Diffusion 3.5. Du kan dra forskjellige filer inn i grensesnittet og kjøre bildegenereringsoppgaver enkelt.

Bruke Hugging Face Spaces

Besøk Hugging Face Spaces for å kjøre Stable Diffusion-modeller direkte i nettleseren din uten installasjonskrav.

For flere brukere vil mange apper og nettsteder snart integrere den nyeste Stable Diffusion 3.5-modellen for bildegenerering, så følg med for oppdateringer!

Ultralett-Digital-Human: en ultralett digital menneskelig modell kan kjøres på en mobiltelefon

Ultralett-Digital-Menneske: en ultralett digital menneskelig modell som støtter sanntidsdrift på mobile enheter.

Modellens algoritme er optimalisert for å kjøre jevnt, selv på enheter med lite strøm.
Kun 3 til 5 minutter med video er nødvendig for å fullføre opplæringen.

Sørg for at hver frame av videoen har personens hele ansiktet eksponert og at lyden er klar uten støy. Legg den i en ny mappe.

I tillegg, gjennom optimalisert dataflyt og slutningsprosesser, kan modellen behandle inngangsdata (som video og lyd) i sanntid, noe som muliggjør umiddelbare digitale menneskelige svar.

De AI videoplattform D-ID lanserte nye digitale menneskelige verktøy


AI-videoplattformen D-ID har lansert to nye digitale menneskelige verktøy—Express og Premium+, spesielt designet for innholdsskaping, rettet mot å gjøre det mulig for bedrifter å bruke mer realistiske virtuelle mennesker på områder som markedsføring, salg og kundestøtte.

Det virtuelle Express-mennesket krever kun ett minutts videotrening for å genereres og kan synkroniseres med brukerens hodebevegelser.

Premium+ virtuelle mennesket krever en lengre treningsvideo, men kan utføre hånd- og overkroppsbevegelser, og skape mer realistiske menneskelige interaksjoner.

Disse verktøyene gjør det enklere å generere virtuelle menneskelige videoer, reduserer forretningskostnader i markedsføring og tilbyr bredere anvendelighet.

Google Gemini API har introdusert "Search Anchoring"

Google lanserte den nye funksjonen "Google Search Anchoring" i Gemini API og Google AI Studio. det er veldig praktisk å bruke.

Denne funksjonen utnytter sanntidsdata fra Google Søk for å gi brukerne mer nøyaktig og oppdatert informasjon, sammen med støttekoblinger og søkeforslag, noe som gjør AI-svar mer pålitelige.

Bruk av de siste nyhetsdataene innhentet gjennom søk reduserer feilinformasjon.
Sanntidssøk henter den nyeste informasjonen, noe som gir bedre svar i visse søkeresultater.

Lenker til informasjonskilder er inkludert i svarene, noe som gjør det enklere for brukere å verifisere troverdigheten til informasjonen.

Claude for skrivebordet

AntropiskAI har bygget en Claude desktop-app! Nå kan du være tilgjengelig på Mac og Windows.

Som din AI-assistentClaude kan hjelpe deg med å utføre dypere arbeid raskere og mer kreativt.

Du kan nå bruke Claude på hvilken som helst enhet, snakke med Claude og få Claude til å hjelpe deg med å finne svar på spørsmål og analysere innholdet i bilder.

Claude har lært å forstå diagrammer og grafer i PDF-filer!


The Anthropic var i ferd med å rulle ut muligheten til å sende Claude PDF-er i Anthropic API.
Med deres nye PDF-støttebeta kan du inkludere en PDF direkte i API-forespørselen din. Det er nå enklere å lese forskningsartikler.

Den nye Claude 3.5 Sonnet-modellen støtter nå PDF-inndata og forstår både tekst og visuelt innhold i dokumenter.

Du kan oppleve denne funksjonen i funksjonsforhåndsvisningen.

Du kan stille alle spesifikke spørsmål du vil om innholdet i PDF-en, og Claude kan svare på spørsmålene dine basert på dens bildeleseevne.

Hvordan fungerer PDF-støtte?

  • Systemet vil konvertere hver side i PDF-en til et bilde.
  • Systemet får en bedre forståelse av PDF-en ved å analysere tekst og bilder.
  • Andre Claude-funksjoner kan brukes samtidig.

Hvordan kan jeg aktivere funksjonen Visual PDF i Claude

Følg disse trinnene for å aktivere Visual PDF-funksjonen i Claude:

  1. Få tilgang til innstillingene:
    Åpne Claude-grensesnittet og se etter et flaskeikon eller en innstillingsmeny.
  2. Aktiver visuelle PDF-filer:
    Klikk på kolbeikonet, naviger til alternativet Visuelle PDF-filer og slå det på. Dette vil tillate Claude å behandle og tolke bilder og visuelle elementer i PDF-dokumenter.
  3. Last opp PDF-en din:
    Når funksjonen er aktivert, kan du laste opp et PDF-dokument ved å dra det inn i chattevinduet eller bruke opplastingsknappen. det er veldig enkelt og praktisk.
  4. Samhandle med Claude:
    Etter å ha lastet opp PDF-filene kan du stille Claude spørsmål om både teksten og bildene i PDF-en, noe som forbedrer interaksjonen med komplekse dokumenter. Dette vil hjelpe deg med å lese dokumenter mer praktisk og øke effektiviteten!

Lignende innlegg