Genießen Sie 30% Rabatt in begrenzter Zeit.

DP-100 Aktualisierte Fragen zum reibungslosen Löschen der Microsoft DP-100-Prüfung

DP-100 Aktualisierte Fragen zum reibungslosen Löschen der Microsoft DP-100-Prüfung

Die effektivsten DP-100-Prüfungsfragen wurden von den besten Fachleuten aktualisiert, die über umfassende Erfahrung in der Prüfung Designing and Implementing a Data Science Solution on Azure verfügen. Die aktualisierten Microsoft DP-100-Fragen stellen sicher, dass die Kandidaten die Microsoft DP-100-Prüfung reibungslos bestehen. Auf Passexam.de können Sie aktualisierte DP-100-Fragen und verifizierte Antworten im PDF-Format herunterladen, um sie jederzeit und überall auf Ihrem PC, Telefon und Mac zu lesen.

Überprüfen Sie zuerst die Fragen zur kostenlosen DP-100-Prüfung unten

Page 1 of 3

1. Sie müssen ein neues Kostenfaktorszenario für die Ad-Response-Modelle implementieren, wie in dargestellt Leistungskurve ausstellen.

Welche Technik sollten Sie verwenden?

2. Sie verwenden Azure Machine Learning Studio, um ein Machine Learning-Experiment zu erstellen.

Sie müssen Daten in zwei unterschiedliche Datasets aufteilen.

Welches Modul sollten Sie verwenden?

3. Sie evaluieren eine fertige binäre Klassifikationsmaschine.

Sie müssen die Genauigkeit als Bewertungsmetrik verwenden.

Welche Visualisierung sollten Sie verwenden?

4. 1. Thema 1, Fallstudie 1



Überblick

Sie sind Data Scientist in einem Unternehmen, das Data Science für professionelle Sportveranstaltungen anbietet.

Modelle werden globale und lokale Marktdaten sein, um die folgenden Geschäftsziele zu erreichen:

• Verstehen Sie die Stimmung von Benutzern mobiler Geräte bei Sportveranstaltungen auf der Grundlage von Audio aus den Reaktionen der Menge.

• Greifen Sie auf die Tendenz eines Benutzers zu, auf eine Anzeige zu reagieren.

• Passen Sie die Stile von Anzeigen an, die auf Mobilgeräten geschaltet werden.

• Verwenden Sie Video, um Elfmeterereignisse zu erkennen.



Aktuelles Umfeld

Anforderungen

• Medien, die zur Erkennung von Strafereignissen verwendet werden, werden von Verbrauchergeräten bereitgestellt. Medien können Bilder und Videos enthalten, die während des Sportereignisses aufgenommen und über soziale Medien eingefangen wurden. Die Bilder und Videos haben unterschiedliche Größen und Formate.

• Die für den Modellbau zur Verfügung stehenden Daten umfassen sieben Jahre Sportveranstaltungsmedien. Die Sportereignismedien umfassen: aufgezeichnete Videos, Transkripte von Radiokommentaren und Protokolle von verwandten Social-Media-Feeds , die während der Sportereignisse erfasst wurden.

• Die Stimmung der Menge umfasst Audioaufnahmen, die von Veranstaltungsteilnehmern in Mono und Stereo eingereicht wurden Formate.



Anzeige

• Ad-Response-Modelle müssen zu Beginn jeder Veranstaltung trainiert und während der Sportveranstaltung angewendet werden.

• Marktsegmentierungs -Nxxlels müssen für ähnliche Anzeigenresponsorenhistorie optimiert werden.

• Das Sampling muss gegenseitige und kollektive Exklusivität lokaler und globaler Segmentierungsmodelle garantieren, die dieselben Merkmale aufweisen.

• Lokale Marktsegmentierungsmodelle werden angewendet, bevor die Neigung eines Benutzers bestimmt wird, auf eine Anzeige zu reagieren.

• Data Scientists müssen in der Lage sein, die Verschlechterung und den Verfall von Modellen zu erkennen.

• Ad-Response-Modelle müssen nichtlineare Begrenzungsfunktionen unterstützen.

• Das Werbeneigungsmodell verwendet einen Kürzungsschwellenwert von 0,45 und erneute Schulungen erfolgen, wenn das gewichtete Kappa von 0,1 +/-5 % abweicht.

• Das Werbeneigungsmodell verwendet Kostenfaktoren, die im folgenden Diagramm dargestellt sind:





• Das Werbeneigungsmodell verwendet vorgeschlagene Kostenfaktoren, die im folgenden Diagramm dargestellt sind:





Leistungskurven aktueller und vorgeschlagener Kostenfaktorszenarien sind im folgenden Diagramm dargestellt:







Elfmetererkennung und Sentiment

Ergebnisse

• Datenwissenschaftler müssen eine intelligente Lösung entwickeln, indem sie mehrere maschinelle Lernmodelle zur Erkennung von Penalty-Ereignissen verwenden.

• Data Scientists müssen Notebooks in einer lokalen Umgebung mit automatischem Feature-Engineering und Modellerstellung in Pipelines für maschinelles Lernen erstellen.

• Notebooks müssen zum erneuten Trainieren bereitgestellt werden, indem Spark-Instanzen mit dynamischer Worker-Zuweisung verwendet werden

• Notebooks müssen mit demselben Code auf neuen Spark-Instanzen ausgeführt werden, um nur die Quelle der Daten neu zu codieren.

• Globale Penalty-Erkennungsmodelle müssen trainiert werden, indem während des Trainings dynamische Laufzeitgraphberechnungen verwendet werden.

• Lokale Penalty-Erkennungsmodelle müssen mithilfe von BrainScript geschrieben werden .

• Experimente für lokale Crowd-Stimmungsmodelle müssen lokale Penalty-Erkennungsdaten kombinieren.

• Crowd-Sentiment-Modelle müssen bekannte Geräusche wie Jubelrufe und bekannte Schlagworte identifizieren. Individuelle Crowd-Sentiment-Modelle erkennen ähnliche Geräusche.

• Alle gemeinsamen Merkmale für lokale Modelle sind kontinuierliche Variablen.

• Gemeinsam genutzte Features müssen doppelte Genauigkeit verwenden. Nachfolgende Schichten müssen Metriken für den aggregierten laufenden Mittelwert und die Standardabweichung verfügbar haben.



Segmente

Während der ersten Produktionswochen wurde Folgendes beobachtet:

• Anzeigenreaktionsraten sanken.

• Drops waren in allen Anzeigenstilen nicht konsistent.

• Die Verteilung von Funktionen auf Trainings- und Produktionsdaten ist nicht konsistent.

Die Analyse zeigt, dass von den 100 numerischen Merkmalen zum Standort und Verhalten des Benutzers die 47 Merkmale, die aus Standortquellen stammen, als Rohmerkmale verwendet werden. Ein vorgeschlagenes Experiment zur Behebung des Bias- und Varianzproblems besteht darin, 10 linear unkorrigierte Merkmale zu konstruieren.



Elfmetererkennung und Sentiment

• Die anfängliche Datenermittlung zeigt ein breites Spektrum an Dichten von Zielzuständen in Trainingsdaten, die für Crowd-Sentiment-Modelle verwendet werden.

• Alle Straferkennungsmodelle zeigen, dass Inferenzphasen mit einem stochastischen Gradientenabstieg (SGD) zu langsam laufen .

• Hörbeispiele zeigen, dass die Länge eines Schlagworts je nach Region zwischen 25 % und 47 % variiert.

• Die Leistung der globalen Penalty-Erkennungsmodelle zeigt eine geringere Varianz, aber eine höhere Verzerrung beim Vergleich von Trainings- und Validierungssätzen. Bevor Sie Funktionsänderungen implementieren, müssen Sie die Verzerrung und Varianz anhand aller Trainings- und Validierungsfälle bestätigen.



Sie müssen eine Modellentwicklungsstrategie implementieren, um die Tendenz eines Benutzers zu bestimmen, auf eine Anzeige zu reagieren.

Welche Technik sollten Sie verwenden?

5. Sie müssen eine Merkmalsextraktionsmethode auswählen.

Welche Methode sollten Sie verwenden?

6. Eine Reihe von CSV-Dateien enthält Verkaufsdatensätze. Alle CSV-Dateien haben das gleiche Datenschema.

Jede CSV-Datei enthält den Verkaufsdatensatz für einen bestimmten Monat und hat den Dateinamen sales.csv. Jede Datei wird in einem Ordner gespeichert, der den Monat und das Jahr angibt, in dem die Daten aufgezeichnet wurden. Die Ordner befinden sich in einem Azure-Blobcontainer, für den ein Datenspeicher in einem Azure Machine Learning-Arbeitsbereich definiert wurde.

Die Ordner sind in einem übergeordneten Ordner namens sales organisiert, um die folgende hierarchische Struktur zu erstellen:





Am Ende jedes Monats wird dem Verkaufsordner ein neuer Ordner mit der Verkaufsdatei dieses Monats hinzugefügt.

Sie planen, die Verkaufsdaten zu verwenden, um ein maschinelles Lernmodell basierend auf den folgenden Anforderungen zu trainieren:

✑ Sie müssen einen Datensatz definieren, der alle bisherigen Verkaufsdaten in eine Struktur lädt, die einfach in einen Datenrahmen umgewandelt werden kann .

✑ Sie müssen in der Lage sein, Experimente zu erstellen, die nur Daten verwenden, die vor einem bestimmten Vormonat erstellt wurden, und alle Daten ignorieren, die nach diesem Monat hinzugefügt wurden.

✑ Sie müssen die minimal mögliche Anzahl von Datensätzen registrieren.

Sie müssen die Verkaufsdaten als Dataset im Azure Machine Learning-Dienstarbeitsbereich registrieren.

Was tun?

7. Sie erstellen einen Azure Machine Learning-Arbeitsbereich.

Sie müssen eine benutzerdefinierte Rolle namens DataScientist erstellen , die die folgenden Anforderungen erfüllt:

✑ Rollenmitglieder dürfen den Arbeitsbereich nicht löschen können.

✑ Rollenmitglieder dürfen nicht in der Lage sein, Rechenressourcen im Arbeitsbereich zu erstellen, zu aktualisieren oder zu löschen.

✑ Rollenmitglieder dürfen keine neuen Benutzer zum Arbeitsbereich hinzufügen können.

Sie müssen eine JSON-Datei für die DataScientist- Rolle im Azure Machine Learning-Arbeitsbereich erstellen.

Die benutzerdefinierte Rolle muss die vom IT-Betriebsteam festgelegten Einschränkungen erzwingen.

Welches JSON-Codesegment sollten Sie verwenden?

EIN)





B)





C)





D)



8. Sie planen den Aufbau einer Data-Science-Teamumgebung. Daten für Trainingsmodelle in Pipelines für maschinelles Lernen werden über 20 GB groß sein.

Sie haben folgende Voraussetzungen:

✑ Modelle müssen mit Caffe2- oder Chainer-Frameworks erstellt werden.

✑ Data Scientists müssen in der Lage sein, eine Data-Science-Umgebung zu verwenden, um die Pipelines für maschinelles Lernen zu erstellen und Modelle auf ihren persönlichen Geräten sowohl in verbundenen als auch in nicht verbundenen Netzwerkumgebungen zu trainieren.

✑ Persönliche Geräte müssen die Aktualisierung von Pipelines für maschinelles Lernen unterstützen, wenn sie mit einem Netzwerk verbunden sind.

Sie müssen eine Data-Science-Umgebung auswählen.

Welche Umgebung sollten Sie verwenden?

9. Sie müssen eine Umgebung auswählen, die die Geschäfts- und Datenanforderungen erfüllt.

Welche Umgebung sollten Sie verwenden?

10. Thema 3, Mischfragen



Sie planen, ein Python-Skript als Azure Machine Learning-Experiment auszuführen.

Das Skript enthält den folgenden Code:

import os , argparse , glob

aus azureml.core import Ausführen

= argparse.ArgumentParser ()

parser.add_argument ( ' --input -data',

type=str, dest =' data_folder ')

args = parser.parse _args ()

data_path = args.data_folder

file_paths = glob.glob ( data_path + "/*.jpg")

Sie müssen ein Datei-Dataset als Eingabe für das Skript angeben. Der Datensatz besteht aus mehreren großen Bilddateien und muss direkt von seiner Quelle gestreamt werden.

Sie müssen Code schreiben, um ein ScriptRunConfig- Objekt für das Experiment zu definieren, und das ds-Dataset als Argument übergeben.

Welches Codesegment sollten Sie verwenden?


 

Teile diesen Beitrag