PASS Summit 2017 in Seattle

In diesem Beitrag schildere ich meine Eindrücke vom PASS Summit 2017 in Seattle, der vom 29.10.2017 bis zum 03.11.2017 stattfindet. Dieses Jahr ist es der 18. PASS Summit und der dritte den ich persönlich besuche. Im Gegensatz zum letzten Jahr ist kein Vortrag an dem ich mitwirke angenommen worden, so dass ich mich in diesem Jahr darauf konzentrieren kann, Vorträge zu hören.

Die Keynote wurde von Rohan Kumar, General Manager DB Systems Engineering gehalten und zunächst hat er sich auf das Thema Date, Cloud und AI fokussiert. Was man auch hier wieder merkt, dass sich die Microsoft Datenplatform seit mehreren Jahren nicht mehr alleine um den SQL Server und seine zahlreichen Tools dreht, sondern dass Microsoft hier viel offener geworden ist und im Rahmen der Datenplattform auch Themen wie z.B. Analytics und AI behandelt werden. Insgesamt ist das auch kein Wunder, da diese Technologien auf Daten basieren. Ohne Daten keine AI und auch keine Analyse. Auch Microsoft-fremden Themen steht man in Redmond inzwischen viel offener gegenüber, was man beispielsweise an SQL auf Linux oder managed PostGres und MySQL unter Azure sehen kann. In seinem Vortrag ist Rohan auch darauf eingegangen wie wichtige die Community und das Community Feedback für Microsoft ist.

Eine der wichtigen Informationen ist, dass der SQL Server 2017 vor einem Monat auf der Ignite gelauncht wurde und dass seit dem über eine halbe Million Trial Versionen heruntergeladen wurden. Natürlich steht auch SQL Server unter Linux bzw. Docker im Fokus. Auch wenn der SQL Server 2017 als neues Produkt auf der Ignite veröffentlicht worden ist, ist es doch kein 100% neues Produkt, da viele der neuen Funktionen vorher bereits in Azure SQL Database implementiert worden sind.

Die ersten Gäste, die Rohan auf die Bühne geholt haben, sind Bob Ward und Conor Cunningham die „Scalable Persistent Memory“ zeigen. Diese Technologie wird mit der Performance von SSDs verglichen. Es stellt sich heraus, dass das Lesen der Daten aus dem Speicher viel schneller ist als wenn die Daten vom Storage gelesen werden. Dass diese Technologie von Microsoft unterstützt wird, ist klasse, da bisher ja immer davon abgeraten wurde mit memory gemappten Speicherorten beim SQL Server zu arbeiten (Ausnahme ist die tempdb). Es war so möglich 100TB Daten in 6 Sekunden zu analysieren. Ein weiteres Highlight ist die Demo wie Plan Regression automatisch mit dem Query Store und dem SQL Server 2017 behoben werden kann. Die automatische Behebung des Problems führt dazu, dass es zwar beim Eintreten der Plan Regression einen Performance-Einbruch gibt, dieser dann aber nach kurzer Zeit wieder behoben wird. Das ist zwar soweit schon eine ganz nette Sache, ist aber sicherlich nicht für Unternehmen geeignet, die strikte Performance-Vorgaben haben, da es dort natürlich immer noch einen Performance-Knick gibt bevor der Automatismus einsetzt.

Nach diesem Intermezzo ist Rohan wieder zurück und redet über weitere Highlights wie die Graph-Datenbank, Machine Learning mit R und Phyton und Adaptive Query Processiong. Die Änderungen die es unter 2017 im Query Processor gibt, sind erst ein erster Schritt und es wird hier noch einiges mehr in der Zukunft kommen.

Als nächstes werden Tobias Ternstrom und Mihaela Blendea auf die Bühne geholt. Die beiden zeigen Automatisierung mit SQL Server unter Docker. Einer der interessantesten Use-Cases für SQL Server auf Docker ist es, superschnell eine Entwicklungsumgebung aufzubauen. Hier kann man innerhalb von wenigen Sekunden einen SQL Server zur Verfügung stellen.

Eine andere sehr spannende Sache die kurz am Rande gezeigt wurde, ist das MS SQL Operations Studio. Hierbei handelt es sich um ein neues Verwaltungswerkzeug, das auf Visual Studio Code aufsetzt und im Gegensatz zum SQL Server Management Studio sowohl unter Windows, Linux und Mac OS läuft. Die erste Preview wird am 15. November veröffentlicht und soll als Open Source auch nach github gestellt werden.

Eine andere Sache, die auch noch vorgestellt wurde, ist die Azure SQL Database Managed Instances. Hierbei wird eine SQL Server Instanz in der Cloud von Microsoft gemanagt.

Dann kam Riccardo Muti auf die Bühne und hat die neue Version vom Power BI Report Server vorgestellt. Neuigkeiten hier sind die Möglichkeit, auf allen Geräten Drilldowns/Drillthroughs zu machen und dass es nun auch möglich ist, andere Datenquellen als die Analysis Services zu verwenden. Außerdem kann man nun auch Zeitpläne angeben, zu denen die Daten aktualisiert werden sollen. Für den Power BI Report Server gibt es nun auch eine Rest API, die bereits beim Report Server des SQL Server 2017 vorgestellt wurde. Außerdem ist es möglich, auf freigegebene Datenquellen per OData zugreifen zu können. Genau wie bei den Reporting Services kann man nun auch Power BI Berichte über die URL filtern. Hier kann man sich die neue Version direkt herunterladen.

Nach der Keynote habe ich einen Vortrag zum Thema „Microsoft BI – An Integrated Solution“ von Kamal Hathi gesehen. Hier stand natürlich wieder Power BI im Fokus und es wurden einige sehr interessante Anwendungen gezeigt. Zum einen wurde anhand von Unfallstatistiken gezeigt wie man mit Power BI Vorhersagen machen kann und wie man bestimmte Entwicklungen innerhalb der Daten analysieren kann. So wurde analysiert, warum sich die Unfallzahlen in einem bestimmten Zeitabschnitt vergrößert haben. Diese Analyse hat Power BI mehr oder weniger selbstständig auf Basis der im Datenmodell vorhandenen Daten inkl. graphischer Darstellung durchgeführt . Das fand ich schon sehr beeindruckend. Im Bild unten kann man das auf der rechten Seite sehen.

Interessant war auch die Verwendung von Custom Visuals, um die Auswirkungen der Unfälle auf das Auto anzuzeigen, so

wie es im Bild unten zu sehen ist.

Eine andere interessante  Demo wurde zusammen mit einem Fintess-Trainer der Seattle Seahawks gezeigt. Hierbei wurden Seahawks Spieler über die Cognitive Services per Gesichtserkennung erkannt und konnten dann Daten über bestimmte Parameter wie Schlaf oder Gemütszustand eingeben. Diese Daten werden dann mit Power BI ausgewertet und das Training wird auf die entsprechende Verfassung des Spielers abgestimmt.

Ein weiteres Demo mit Echtzeitdaten zeigte die Analyse eines robotergestützten Warenhauses, bei dem analysiert werden konnte, was die Roboter machen und welcher der Roboter nicht richtig funktioniert hat. In einem anderen Demo wurde noch die Integration von Visio und Power BI gezeigt.

Insgesamt lässt sich abseits der Vorträge festhalten, dass es in diesem Jahr nicht so voll war wie bei den bisherigen PASS Summits bei denen ich anwesend war. So war beispielsweise der Raum für die Keynote, meinem Gefühl nach, nur ein drittel so groß wie in den letzten Jahren. Was mir sehr positiv auffiel, ist dass das Essen viel besser geworden ist und sowohl das Mittagessen als auch das Essen auf der Welcome-Reception der Aussteller lecker war. Ein weiterer positiver Punkt ist, das sehr stabile WLAN, das trotz der doch sehr großen Anzahl an Geräten, nicht in die Knie gegangen ist. Natürlich ist der PASS Summit auch immer ein großes Meet & Greet aller Leute, die man sonst über das Jahr nicht so sieht oder zu denen man nicht so viel Kontakt hat.

Als Fazit lässt sich festhalten, dass es auf dem PASS Summit in diesem Jahr bisher keine großartigen neuen Ankündigen gegeben hat, dazu war die Ignite, auf der der SQL Server 2017 vorgestellt wurde, zeitlich zu knapp davor. Insgesamt macht es aber jedes Jahr Spaß hier zu sein, zu lernen und zu networken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

%d Bloggern gefällt das: