OpenAI API Client - TOM APP
Interfejs API OpenAI dla ChatGPT jest teraz publiczny, a dzięki TOM możesz uwolnić moc GPT-4 Turbo i GPT-4 Vision na swoim urządzeniu mobilnym.
Porozmawiaj bezpośrednio z GPT 4, rozpocznij dyskusję lub rób zdjęcia i zadawaj pytania na ich temat. Możesz mówić w dowolnym języku, TOM rozumie je wszystkie.
Zmień sposób, w jaki zachowuje się TOM, dotykając wiersza systemowego. Spraw, aby odgrywał dowolną rolę.
Ciesz się najdokładniejszym rozpoznawaniem głosu dzięki Whisper OpenAI i doskonale ludzką mową dzięki TTS OpenAI. Możesz też wyłączyć je i korzystać z usług Google, aby zmniejszyć opóźnienia i koszty, a także zapewnić użytkownikom szybszą obsługę.
Możesz także użyć GPT 3.5 Turbo, aby uzyskać szybsze odpowiedzi i zminimalizować koszty.
TOM jest bezpłatny i zawsze będzie. Ale aby skorzystać z AI, potrzebujesz klucza API od właściciela AI, OpenAI.
Klient API GPT
Nie potrzebujesz miesięcznej subskrypcji, aby cieszyć się GPT 4 Turbo lub GPT 4 Vision: wystarczy klucz API. Dobra wiadomość jest taka, że klucze API są bezpłatne na stronie OpenAI. Oto jak zacząć:
1. Utwórz klucz API na https://platform.openai.com/api-keys
2. Użyj klucza API w TOM, aby uwolnić BESTIĘ
Jeśli w dowolnym momencie będziesz musiał zaktualizować lub zmienić używany klucz API, dotknij przycisku KLUCZ.
Kontrola
Użyj selektora na górze, aby przełączać się pomiędzy GPT-3.5 Turbo i GPT-4 Turbo, aby zarządzać kosztami lub uzyskać szybszą reakcję. GPT-4 Vision jest wybierany automatycznie przy każdym robieniu zdjęcia.
Kliknij opis Toma, aby ustawić własny monit systemowy. Poinformuje GPT o sposobie interakcji z Tobą.
Stuknij w przycisk MÓW, aby porozmawiać z GPT.
Stuknij w przycisk APARAT, aby zrobić zdjęcie i zapytać o cokolwiek.
Możesz kontynuować dyskusję na temat tego zdjęcia, klikając później „MÓW”.
Jednak Twój KONTEKST będzie się zwiększał.
Jaki jest kontekst?
Kontekst obejmuje wszystko, co zostało powiedziane w trakcie bieżącej rozmowy, łącznie z zrobionymi zdjęciami. Jest on za każdym razem wysyłany do interfejsu API, ponieważ tak go zapamiętuje GPT.
Rośnie z każdym nowym zdaniem, a zwłaszcza z każdym nowym obrazem. Im większy kontekst wysłany do API, tym dłuższy czas odpowiedzi. Co ważne, opłaty za OpenAI zależą od rozmiaru kontekstu.
Aby znaleźć właściwą równowagę, TOM zapewnia możliwość oczyszczenia kontekstu, gdy staje się szczególnie ciężki, chociaż GPT zapomni wtedy o wszystkich poprzednich interakcjach. W tym celu użyj przycisku BIN.
Rozmiary obrazów
TOM oferuje trzy ustawienia zdjęć wysyłanych do GPT: szybkie, średnie i jakość.
Opcja „Szybka” jest ustawieniem domyślnym i zapewnia mniejsze obrazy w celu szybszej interakcji z tagiem GPT. Działa dobrze z tekstami i większością typów obrazów.
Opcja „Średnia” zapewnia więcej szczegółów, ale skutkuje nieco większymi obrazami.
Aby uzyskać największą dokładność, użyj opcji „jakość”. Te obrazy są najcięższe i najbardziej kosztowne w interfejsie API OpenAI.
Szept i TTS
Whisper to sieć neuronowa OpenAI, która zapewnia niezawodność i dokładność rozpoznawania mowy na poziomie ludzkim. Jeśli ta opcja jest włączona, będziesz cieszyć się dodatkową dokładnością rozpoznawania głosu, którą TOM wysyła do GPT, ale za dodatkową opłatą.
TTS (Text-to-Speech) to system OpenAI, który przekształca tekst w realistyczny dźwięk mówiony. Wiąże się to również z dodatkowymi kosztami.
Obie opcje są domyślnie włączone, aby zapewnić lepszą obsługę użytkownika. Obydwa można jednak wyłączyć, aby uzyskać szybsze odpowiedzi w przypadku wolnych sieci lub zmniejszyć koszty. Jednak przy włączonych obu funkcjach doświadczenie jest naprawdę niesamowite.