Chat with RTX er en demoapp som gir deg muligheten til å tilpasse en stor språkmodell (Large Language Model – LLM) for GPT tilknyttet innholdet ditt – dokumenter, notater eller andre data. Ved å ta i bruk retrieval-augmented generation (RAG), TensorRT-LLM og RTX-akselerasjon kan du stille spørsmål til en tilpasset chatbot for å få relevante svar raskt. Fordi dette også kjøres lokalt på RTX-PC-en eller -arbeidsstasjonen din med Windows får du raske og sikre resultater.
Bare last ned, installer og begynn å chatte med én gang.
| Plattform | Windows |
| GPU | GPU fra NVIDIA GeForce™ RTX 30- eller 40-serien eller NVIDIA RTX™ Ampere- eller Ada Generation-GPU med minst 8 GB VRAM |
| RAM | 16 GB eller mer |
| OS | Windows 11 |
| Driver | 535.11 eller nyere |
| Filstørrelse | 35 GB |
Chat with RTX støtter en rekke filformater, inkludert txt, pdf, doc/docx og xml. Bare naviger til mappen som inneholder filene dine via programmet, så lastes de inn i biblioteket på et øyeblikk.
Teknologidemonstrasjonen i Chat with RTX er utviklet fra utviklerreferanseprosjektet til TensorRT-LLM RAG, som er tilgjengelig fra GitHub. Utviklere kan bruke referansen til å utvikle og iverksette egne RAG-baserte programmer for RTX, akselerert av TensorRT-LLM.
Få AI-ytelse på neste nivå med GPU-er med GeForce RTX™ og NVIDIA RTX™. Fra forbedret kreativitet og produktivitet til lynrask spilling – den ultimate AI-kraften på Windows-PC-er får du på RTX.
Finn ut mer om generative AI-utviklerverktøy og -bedriftsløsninger fra NVIDIA her.