OpenAI heeft de afgelopen twee maanden engineering-, product- en onderzoeksteams verenigd om zijn audiomodellen te herzien ter voorbereiding op een op audio gebaseerd persoonlijk apparaat dat over ongeveer een jaar op de markt zal komen, zo blijkt uit berichtgeving van De informatie. De revisie is gericht op verbeteringen in de audiomogelijkheden van OpenAI die verder gaan dan de huidige beperkingen. Het nieuwe audiomodel van het bedrijf, dat begin 2026 op de markt zal komen, zal natuurlijker klinkende spraak produceren. Het beheert onderbrekingen op een manier die vergelijkbaar is met die van een echte gesprekspartner. Dit model zal het ook mogelijk maken dat de AI tegelijkertijd spreekt terwijl de gebruiker praat, een functie die bestaande modellen niet kunnen vervullen. OpenAI plant een familie apparaten die worden aangedreven door deze geavanceerde audiotechnologie. Mogelijke ontwerpen zijn onder meer een bril of schermloze slimme luidsprekers. Deze apparaten zijn bedoeld om te functioneren als metgezellen in plaats van louter als hulpmiddelen, en naadloos te integreren in dagelijkse interacties.
Voormalig Apple-ontwerpchef Jony Ive draagt bij aan de hardware-initiatieven van OpenAI. OpenAI nam zijn bedrijf io in mei over voor 6,5 miljard dollar. Ive geeft prioriteit aan audio-first-ontwerpprincipes om apparaatverslaving aan te pakken. Zoals The Information opmerkt, beschouwt Ive deze aanpak als een kans om “de fouten recht te zetten” met betrekking tot consumentengadgets uit het verleden. De drang naar audio-interfaces sluit aan bij bredere industriële ontwikkelingen. Slimme luidsprekers met stemassistenten bestaan in meer dan een derde van de Amerikaanse huizen. Deze apparaten hebben spraakinteractie tot een standaard huishoudelijk element gemaakt. Meta heeft een functie geïntroduceerd voor zijn Slimme bril van Ray-Ban die gebruik maakt van een array met vijf microfoons. Deze opstelling helpt gebruikers bij het horen van gesprekken in rumoerige omgevingen. De technologie transformeert de bril effectief in een directioneel luisterapparaat dat op het gezicht wordt geplaatst. Google startte in juni experimenten met “Audio-overzichten.” Deze functie converteert zoekresultaten naar conversatiesamenvattingen die via audio worden geleverd. Gebruikers ontvangen gesproken overzichten in plaats van visuele lijsten, waardoor handsfree toegang tot informatie wordt vergemakkelijkt. Tesla integreert Grok en andere grote taalmodellen in zijn voertuigen. De integratie creëert spraakassistenten die in staat zijn tot een natuurlijke dialoog. Deze assistenten beheren taken zoals navigatie en klimaatbeheersing via gesproken opdrachten en reacties. Startups streven naar vergelijkbare audiogerichte hardware met gemengde resultaten. De Menselijke AI-pineen wearable zonder scherm, heeft honderden miljoenen aan financiering verbruikt voordat het als een waarschuwend verhaal in de sector naar voren kwam. De Friend AI-hanger functioneert als een ketting die aspecten van het leven van gebruikers vastlegt en tegelijkertijd gezelschap biedt. Dit apparaat heeft aanleiding gegeven tot bezorgdheid over de privacy, naast berichten over existentiële angst onder gebruikers. Nog meer startups ontwikkelen AI-ringen die naar verwachting in 2026 zullen debuteren. Sandbar vertegenwoordigt één inspanning. Een ander voorbeeld betreft Pebble-oprichter Eric Migicovsky. Met deze ringen kunnen dragers rechtstreeks gesprekken voeren met het apparaat op hun hand. De vormfactoren variëren per project (wearables, hangers, ringen), maar ze benadrukken allemaal audio als de primaire interface. Ruimtes zoals huizen, auto's en zelfs het gezicht evolueren naar interactieve audioomgevingen.





