Pavan Davuluri van Microsoft besprak de toekomst van Windows in een nieuw video-interview, waarin staat dat de volgende versie “meer ambient, alomtegenwoordiger en multimodaal” zal zijn, aangezien AI gebruikersinteractie met computers opnieuw definieert.
Pavan Davuluri, Microsoft CVP en Windows Boss, schetsten onlangs een visie voor de toekomst van het Windows -besturingssysteem in een nieuw uitgebracht video -interview. Davuluri heeft gedetailleerd hoe kunstmatige intelligentie (AI) de desktopinterface fundamenteel zal veranderen, wat leidt tot een ambient en multimodale computerervaring. Deze discussie gaf inzichten in de strategische richting van Microsoft voor zijn vlaggenschipplatform.
Tijdens het interview sprak Davuluri de transformerende impact van AI op interactie tussen mens en computer. Hij verklaarde: “Ik denk dat we zullen zien dat computergebruik meer ambient, meer doordringend wordt, vormfactoren blijven omvatten en zeker meer multimodaal worden in de tijd.” Davuluri ging verder in op de zich ontwikkelende aard van inputmethoden en merkt op: “Ik denk dat ervaringen diversiteit de volgende ruimte is waar we de stem belangrijker zullen blijven zien. Fundamenteel, het concept dat uw computer daadwerkelijk naar uw scherm kan kijken en contextbewust is, wordt een belangrijke modaliteit voor ons in de toekomst.” Dit duidt op een verschuiving naar systemen die milieu- en gebruikerscontext begrijpen door middel van geavanceerde AI -mogelijkheden.
Microsoft heeft eerder een strategische nadruk op stem aangegeven als een primaire invoermethode voor toekomstige Windows -iteraties. Een video “Windows 2030 Vision”, uitgebracht een week voorafgaand aan het interview van Davuluri, bevatte Microsoft’s CVP of Enterprise & Security die soortgelijke concepten besprak met betrekking tot de toekomst van het besturingssysteem. Deze eerdere communicatie sluit aan bij de recente verklaringen van Davuluri en versterkt de toewijding van het bedrijf om stem te integreren als een kerninteractiemodaliteit.
De komende versie van Windows zal naar verwachting de stem verheffen naar een eersteklas invoermethode, waarbij traditionele muis- en toetsenbordinterfaces aanvullen. Gebruikers zullen naar verluidt in staat zijn om met Windows te communiceren met behulp van natuurlijke taal, met het besturingssysteem dat is ontworpen om de intentie van de gebruikers te begrijpen op basis van de inhoud die op het scherm wordt weergegeven. Deze integratie is bedoeld om een meer intuïtieve en naadloze gebruikerservaring te creëren, waardoor omgevingstermijn met het besturingssysteem mogelijk is.
Davuluri suggereerde ook dat het visuele uiterlijk en de interactieparadigma van Windows onderhevig zijn aan aanzienlijke verandering vanwege de integratie van agentische AI. Hij merkte op: “Ik denk dat hoe menselijke interfaces er vandaag uitzien en hoe ze er over vijf jaar uitzien vanaf nu een groot gebied van stuwkracht voor ons is dat ramen blijven evolueren. Het besturingssysteem wordt steeds meer agentisch en multimodaal.” Deze verklaring benadrukt een substantiële investering en voortdurende ontwikkelingsinspanningen om het kernontwerp- en gebruikersinteractiemodellen van het besturingssysteem te ontwikkelen.
De cloudinfrastructuur wordt geïdentificeerd als een kritieke enabler voor deze geavanceerde Windows -ervaringen. Davuluri legde uit: “Compute zal alomtegenwoordig worden, omdat in Windows -ervaringen een combinatie van capaciteiten gaan gebruiken die lokaal zijn en die in de cloud zijn. Ik denk dat het onze verantwoordelijkheid is om ervoor te zorgen dat ze naadloos zijn voor onze klanten.” Dit duidt op een hybride computermodel waarbij lokale apparaatmogelijkheden naadloos worden geïntegreerd met cloudgebaseerde verwerking om verbeterde functionaliteit te leveren.
De strategische richting van Microsoft suggereert een fundamentele verschuiving in hoe AI -assistenten worden geïntegreerd in besturingssystemen. Huidige AI -assistenten, zoals Copilot op Windows, Gemini op Android of Siri op macOS, fungeren doorgaans als applicaties of overlays die bovenop bestaande OS -platforms werken. Microsoft lijkt zich voor te bereiden op het introduceren van een besturingssysteem waarbij AI intrinsiek is geweven in zijn fundamentele architectuur, in plaats van bestaande als een afzonderlijke laag. Deze transformatie wordt verwacht in de komende vijf jaar, mogelijk samenvallen met de release van Windows 12. Meerdere Microsoft-managers op hoog niveau hebben op deze belangrijke evolutie verwijst, waardoor het wordt ingelicht als een belangrijke verschuiving in computergebruik door AI-vooruitgang.
Hoewel het concept van spraak een primaire inputmethode voor pc’s wordt, kan voor sommige gebruikers een aanpassing presenteren, wordt verwacht dat de integratie van agentische AI en het vermogen van het OS om de intentie en de natuurlijke taal te begrijpen deze interactie intuïtiever aanvoelen. Deze evolutie reikt verder dan Microsoft, waarbij Apple naar verluidt een vergelijkbare spraakgerichte functie ontwikkelt voor iOS 26. Van deze aankomende functie voor iPhone-gebruikers wordt het gerucht dat de applicatieravigatie uitsluitend via verbale opdrachten mogelijk maakt, waardoor de intentie van de gebruikers rechtstreeks naar het apparaat wordt gearticuleerd.
Op het Windows -platform zal spraakinvoer waarschijnlijk ingevulde invoermethoden vergroten in plaats van te vervangen. Het systeem zal drie primaire interactie -modi bevatten: typen, aanraking/muis en stem. Hoewel spraakinput mogelijk niet verplicht is voor het voltooien van de taak, wordt verwacht dat de beschikbaarheid van gebruikers de workflows van de gebruikersstroomlijnen. De afhankelijkheid van uitgebreide persoonlijke gebruikersgegevens om deze AI-gedreven ervaringen te optimaliseren, verhoogt echter privacyoverwegingen. Davuluri’s erkenning van een noodzakelijke balans tussen lokale en cloudberekening voor deze ervaringen suggereert dat deze privacyproblemen een belangrijke factor zullen zijn in hun implementatie en publieke ontvangst.





