Suche
Neues vom Androiden-Planeten

Planet Android: Kotlin, stabile Bibliotheken und sprich mit mir

Carina Schipper

Die jüngste Nachricht zu Android und Kotlin lautet: offiziell produktionsbereit. Auch bei den Android Architecture Components heißt es ab sofort: wir sind stabil. Zusätzlich werfen wir noch ein Blick darauf, wie viel Spaß Sprachintegration Entwicklern machen kann.

Kotlin meldet offiziell produktionsbereit

Laut Android Developers Blog nutzen knapp ein Fünftel der Projekte in Android Studio 3.0 Kotlin. Jetzt ist Kotlin für Android offiziell produktionsbereit. Mit der aktuellen Version von Android Studio 3.0 gibt es nun eine stabile Version der IDE, die die Kotlin-Unterstützung integriert hat. Mit Support Library 27 haben die Entwickler damit begonnen, Nullability-Annotationen hinzuzufügen, um die APIs in Kotlin benutzerfreundlicher zu machen. Die Android Kotlin Guides auf GitHub liefern einige Leitfäden für Android Kotlin Style und Interop. Zusätzlich hat das Android-Team einige seiner Android Samples auf Kotlin portiert und fügt Kotlin der offiziellen Dokumentation hinzu.

Android Studio 3.0 hat die Unterstützung für Kotlin im Gepäck. Aufbauend auf IntelliJs Stärke der Kotlin-Unterstützung funktionieren viele kritische IDE-Features wie Code-Komplettierung und Syntax-Highlighting gut für Kotlin. Java-Code lässt sich mithilfe von Code → Convert Java File to Kotlin File nach Kotlin konvertieren. Daneben kann der Nutzer auch Code-Snippets in Java in eine Kotlin-Datei einfügen, um sie zu transformieren.

Passt, sitzt, wackelt und hat Luft – Android Architecture Components

Mit Version 1.0 hat Google das erste stabile Release von Android Architecture Components veröffentlicht. Allerdings sind die Bibliotheken keinesfalls etwas neues. Unter Entwicklern sind bereits die Beta-Versionen allseits beliebt und kommen fleißig zum Einsatz. Jetzt haben die Room and Lifecycle Architecture Components Libraries den Status stabil erreicht. Diese APIs sind bereit für produktive Anwendungen und Bibliotheken. Das Android Developer Framework Team empfiehlt sie Entwicklern, die Hilfe bei der App-Architektur und dem lokalen Storage suchen. Lifecycles sind jetzt auch in die Support Library integriert, sodass sie sich mit Standard-Klassen wie AppCompatActivity verwenden lassen.

Spaß mit Sprachinteraktion

Mit neuen Technologien spielt jeder gerne herum, egal ob Entwickler oder Endkunde. Wer hat beispielsweise nicht wenigstens ein Mal den Sprachassistenten seines Smartphones irgendwelchen Blödsinn gefragt? Sprachinteraktion erhöht allerdings nicht nur den Spaßfaktor. In ihr steckt das Potenzial, die Art und Weise, wie wir Technologie nutzen, zu vereinfachen. Dialogflow, Actions on Google und das Speech Synthesis API greifen Entwicklern unter die Arme, wenn sie ein stimmbasiertes Erlebnis schaffen möchten. Die Webseite Voice Experiments soll zeigen, wie Entwickler auf spannende und neue Weise die Interaktion mit der Stimme erforschen.

Resonance Audio: Dreh‘ auf!

Tiere stellen ihre Lauscher auf, um zum Beispiel besser hören zu können, ob sich ein Raubtier nähert. Große Ohren sind also durchaus sinnvoll. Zugegeben, bei uns Menschen hat sich das Problem mit den Fressfeinden über die Jahrtausende dann doch mittlerweile ziemlich erledigt. Trotzdem: wohl dem, der große Ohren hat. Denn: auch wir Menschen sind auf unsere beiden Hörorgane angewiesen. Wir empfangen durch sie akustische Signale aus allen möglichen Richtungen und sie helfen uns, uns in unserer Umwelt zurechtzufinden. Wenn es um AR und VR geht, erwartet der Nutzer natürlich, dass sich alles so authentisch wie möglich anfühlt. Für Entwickler bedeutet das, vor großen Herausforderungen zu stehen. Um ihnen dabei etwas Unterstützung zu liefern, hat Google ein neues Audio-SDK vorgestellt.

Resonance Audio basiert auf der Technologie von Googles VR Audio SDK. Es eignet sich für mobile wie für Desktop-Plattformen. Es kann schwierig sein, eine dynamische Audio-Umgebung ein VR-, AR-, Spiel- oder Videoerlebnis einzubauen, ohne gleichzeitig die Performance zu beinträchtigen. Oft sind nur wenige CPU-Ressourcen für Audio, vor allem auf mobilen Endgeräten, verfügbar. Die Anzahl der simultanen High-Fidelity 3D-Schallquellen für komplexe Umgebungen hält sich in engen Grenzen. Das SDK verwendet hoch optimierte, digitale Signalverarbeitungsalgorithmen. Sie basieren auf Ambisonics höherer Ordnung, um Hunderte von simultanen 3D-Schallquellen zu verräumlichen, ohne die Audioqualität zu beeinträchtigen. Außerdem stellt Google in Unity eine neue Funktion vor, mit der Entwickler Reverb-Effekte mit sehr genau vorberechnen können. Sie sind exakt auf die akustischen Eigenschaften der Umgebung abgestimmt. Das senkt den CPU-Verbrauch während der Wiedergabe deutlich.

Der Planet Android ist bunt, dreht sich schnell, entwickelt sich ständig weiter. Wir bleiben neugierig und beobachten ihn weiter – bis bald!

Geschrieben von
Carina Schipper
Carina Schipper
Carina Schipper ist seit 2017 Redakteurin beim Java Magazin, Business Technology und JAXenter. Sie hat Germanistik und Europäische Ethnologie / Volkskunde an der Julius-Maximilians-Universität Würzburg studiert.
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.