No seguimento das novidades diárias que a OpenAI tem apresentado ao longo deste mês de Dezembro, desta vez as coisas foram dedicadas aos developers.
O mais recente e poderoso modelo o1 passa a ficar disponível através da API; há novos SDKs para acesso aos modelos via Go e Java; nova modalidade "Preference Fine-Tuning" de afinação dos modelos para melhor se ajustarem às necessidades de cada um; redução de 60% no custo do uso do GPT-4o audio, e GPT-4o mini a 1/10 do preço anterior no processamento áudio. Esta redução de custos torna-se particularmente interessante porque também passa a haver integração WebRTC, facilitando imensamente o acesso aos modelos AI via voz e vídeo, com a OpenAI a demonstrar como isso pode ser feito com apenas 12 linhas de código Javascript.
That’s it. That’s the tweet. The Realtime API now supports WebRTC—you can add Realtime capabilities with just a handful of lines of code.
— OpenAI Developers (@OpenAIDevs) December 17, 2024
We’ve also cut prices by 60%, added GPT-4o mini (10x cheaper than previous prices), improved voice quality, and made inputs more reliable. https://t.co/ggVAc5523K pic.twitter.com/07ep5rh0Kl
Isto quer dizer que será extremamente provável que se assista a uma nova vaga de apps com assistentes "GPT" por voz a surgir nos próximos tempos, já que a facilidade de integração, a par dos custos reduzidos, irá aumentar drasticamente o número de projectos que se tornem economicamente viáveis.async function createRealtimeSession(inStream, outEl, token) {
— OpenAI Developers (@OpenAIDevs) December 17, 2024
const pc = new RTCPeerConnection();
pc.ontrack = e => outEl.srcObject = e.streams[0];
pc.addTrack(inStream.getTracks()[0]);
const offer = await pc.createOffer();
await pc.setLocalDescription(offer);
const headers = {…
O ano de 2025 poderá ser o ano em que começaremos a ver a interacção por voz com os modelos AI a finalmente começar a tornar-se naquilo que a Apple esperava atingir com o lançamento da Siri no iPhone 4S no distante ano de 2011.
Sem comentários:
Enviar um comentário