Retour au blog
·Produit

Dictée pour les développeurs : code à la voix, prompts IA et saisie terminal


Les développeurs passent étonnamment beaucoup de temps à écrire des choses qui ne sont pas du code. Descriptions de pull requests. Commentaires de review. Messages Slack expliquant des décisions d'architecture. Documentation. Messages de commit. Prompts IA pour ChatGPT, Claude ou Copilot Chat.

Tout cela relève du langage naturel. Tout cela interrompt votre flux de développement quand vous devez changer de contexte, passer de la pensée en code à la rédaction en prose. Et tout cela est plus rapide à dire qu'à taper.

Le problème du changement de contexte

Vous êtes plongé dans une session de debugging. Vous trouvez la cause racine et vous voulez laisser un commentaire de code expliquant pourquoi le correctif fonctionne — un commentaire dont votre vous futur vous remerciera. Mais passer du mode "lecture d'assembleur" au mode "rédaction en français ou en anglais" demande un effort. Vous écrivez donc un commentaire expéditif, ou vous l'omettez complètement.

La saisie vocale supprime cette friction. Maintenez une touche, dites ce que vous pensez, relâchez. Le commentaire apparaît. Vous n'avez jamais quitté l'éditeur, jamais retiré vos mains du clavier plus d'une seconde, jamais cassé votre élan mental.

Où la saisie vocale s'intègre dans le workflow d'un développeur

Commentaires de code et documentation

Les meilleurs commentaires expliquent le pourquoi, pas le quoi. Mais les commentaires de "pourquoi" exigent d'articuler un raisonnement — et articuler un raisonnement, c'est précisément ce pour quoi la parole est efficace. Dicter un commentaire comme "nous réessayons ici parce que l'API amont renvoie 503 pendant les déploiements, qui ont lieu tous les mardis à 3 h UTC" est plus rapide à dire qu'à taper, et produit une meilleure documentation que "retry on failure".

Prompts IA

Si vous utilisez ChatGPT, Claude, Cursor ou des outils similaires, vous écrivez des prompts en permanence. Les bons prompts sont verbeux — ils incluent le contexte, les contraintes, des exemples et des instructions précises. Taper un prompt de 200 mots prend deux à trois minutes. Le dire prend quarante-cinq secondes.

Le mode Compose d'OnType est particulièrement utile ici. Parlez de votre prompt naturellement — y compris vos corrections et clarifications — et le moteur de réécriture IA le transforme en prompt structuré et clair. La détection de scène reconnaît que vous êtes dans une interface de chat IA et optimise la sortie pour la qualité du prompt : séparation du contexte et des instructions, explicitation des contraintes, suppression des artefacts conversationnels.

Messages de commit Git et descriptions de PR

"fix bug" est le message de commit de quelqu'un qui ne voulait pas changer de contexte. La saisie vocale rend triviale la dictée d'un vrai message : "corrige une condition de course dans le pool de connexions où deux goroutines pouvaient acquérir la même connexion si le health check expirait pendant un redimensionnement". Cela prend quatre secondes à dire.

Slack et communication asynchrone

Expliquer une décision technique dans Slack demande souvent trois paragraphes. La saisie vocale transforme cela en une dictée de 30 secondes. Le mode Compose d'OnType est utile ici aussi — vous dites votre explication brute avec ses digressions et corrections, et le moteur de réécriture produit un message propre et structuré.

Terminal et CLI

OnType fonctionne dans les émulateurs de terminal — iTerm2, Terminal intégré, Warp et d'autres. Cela signifie que vous pouvez dicter de longs arguments de commande, du contenu heredoc, ou même des invites interactives. Le texte apparaît à la position du curseur comme dans n'importe quelle autre application.

Pourquoi cela doit fonctionner à l'échelle du système

Certains outils vocaux ne fonctionnent que dans leur propre fenêtre ou dans des apps spécifiques. Pour les développeurs, cela annule tout l'intérêt. Le but est précisément de ne pas quitter votre contexte actuel — votre éditeur, votre terminal, votre navigateur avec la PR GitHub ouverte.

OnType fonctionne à l'échelle du système. Maintenez le raccourci dans VS Code, le texte apparaît dans VS Code. Maintenez-le dans iTerm2, le texte apparaît dans iTerm2. Maintenez-le dans une zone de commentaire GitHub dans Firefox, le texte apparaît là. Pas de copier-coller depuis une fenêtre de dictée séparée. Pas de changement d'application.

Pourquoi cela doit fonctionner sur l'appareil

Les développeurs travaillent souvent avec du code propriétaire, de la documentation interne et des détails de projet confidentiels. Envoyer un audio où vous discutez de détails d'implémentation vers un service cloud crée une surface d'exposition de données inutile.

Le moteur par défaut d'OnType tourne entièrement sur la puce Apple Silicon de votre Mac. Votre audio — y compris chaque mention d'API internes, de décisions d'architecture et de noms de fonctionnalités non publiées — reste sur votre appareil.

Bien démarrer

Si vous passez plus d'une heure par jour à écrire des choses qui ne sont pas du code, téléchargez OnType et essayez-le pendant une semaine. Le moteur local est gratuit. Le changement dans le workflow est immédiat : maintenez la touche, parlez, relâchez, continuez à coder.

Apprenez-en plus sur la saisie vocale pour les développeurs ou consultez notre guide de démarrage pour les détails de configuration.