You are here

Feed aggregator

AX 2012 – Dimensiones financieras en órdenes de compra y órdenes de venta

MSDN Blogs - 3 hours 15 min ago

Las dimensiones financieras permiten clasificar la información contable básicamente para fines de análisis.

El valor de las dimensiones financieras en cada transacción puede ser registrado al momento de realizar la transacción, o bien, puede heredarse de algún dato maestro en el sistema.

Por ejemplo, para el caso de las órdenes de compra y las órdenes de venta, el primer criterio para heredar la dimensión financiera es el proveedor o el cliente, respectivamente. El valor de la dimensión financiera es heredado, del proveedor o del cliente, al ‘Encabezado’ del documento, el cual a su vez será heredado a las líneas del mismo. En caso que no exista valor para las dimensiones en el proveedor o cliente, el segundo criterio considera que la dimensión será heredada del artículo utilizado en la compra o en la venta.

A continuación, se muestran dos escenarios de negocio para mostrar lo descrito anteriormente:


ESCENARIO A – DIMENSIÓN DE PROVEEDOR

En el Proveedor se define la Dimensión Departamento = OU_1


 

En el Artículo se define la Dimensión Departamento = OU_115


 

RESULTADO. La dimensión financiera del proveedor se hereda al encabezado de la orden de compra, a su vez se hereda a las líneas de la orden de compra, y el registro contable considerará esta dimensión financiera.

 

 

ESCENARIO B – DIMENSIÓN DE ARTÍCULO

En el Proveedor se define la Dimensión Departamento = Nulo

 

 

En el Artículo permanece la Dimensión Departamento = OU_115

RESULTADO. La dimensión financiera del artículo se hereda a cada una de las líneas de la orden de compra, la cual será utilizada para el registro contable.

 

 

Nota. El resultado de herencia de dimensiones financieras puede variar si se trata de documentos diferentes a las órdenes de compra y órdenes de venta.

Referencia: Solution Document 3195266 Default financial dimension value on PO lines


Para E

How to nominate games to be featured on our blog!!!

MSDN Blogs - 3 hours 42 min ago

Got a game or program you made with Small Basic that you want us to review for being featured on this blog?

Maybe someone else's game or program that you think is great?

    

Check out all our featured programs here:

http://blogs.msdn.com/b/smallbasic/archive/tags/featured+program/ 

  

Post the game/program in this thread to nominate them!

Please include the following information:

  1. Name of the game/program. Try to come up with something cool and that differentiates it. Instead of "Maze Game", call it "Smily Face Maze" or "Turtle Maze". For example, rather than "Tank Game", the TeamChallenge teams came up with "Tankinator" and "Tank Rampage". We can help you come up with a more interesting/different name if yours seems to generic.
  2. Link to the program listinghttp://smallbasic.com/smallbasic.com/program/ - What's your listing code? Include the full link to get us there faster.
  3. Link to the download page. If your game/program runs better locally, then zip the files/folders together and upload it to the TechNet Gallery. Include the link to your gallery page. We've got a"Small Basic" tag going in the gallery. Here's the TechNet Gallery: http://gallery.technet.microsoft.com/
  4. Name and Link to the creator's Profile Page. If it was you, then just include your name. Your profile link is attached to your post anyway. But if someone else wrote it, please link to their profile. If multiple people made the game/program, please include a profile link for each person and explain what they did (if you know).

     

Post here with the game or program that you want featured:

https://social.msdn.microsoft.com/Forums/en-US/aabdea40-0b24-428a-a830-9ab63ba9f076/nominate-games-or-other-programs-here-to-get-featured-on-our-blog-part-3?forum=smallbasic 

  

Have a Small and Basic weekend!

   - Ninja Ed

All the info, in lots more languages!

MSDN Blogs - 4 hours 17 min ago

As we promised earlier this week, Kinect for Windows information for developers has migrated. You’ll now find it in the Windows Dev Center, where it’s in some pretty snazzy company. (Hello, Cortana.  Hi there, Windows 10 and Universal Windows Apps.)

Parlez-vous français? Sprechen Sie Deutsch? 한국어를 말 하나요? We’ve got you covered, since our Dev Center pages are now available in 23 languages. So cruise on over to our new home and pay us a visit. You’ll find information about everything Kinect for Windows, from hardware specs and feature descriptions to information on creating innovative apps that let users interact naturally with computers and computing devices. And you won’t need a bilingual dictionary to read it!

The Kinect for Windows Team

Key links

Performance issues with Visual Studio Online in South Central US - 8/28 - Investigating

MSDN Blogs - 4 hours 54 min ago
Initial Update: Friday, 28 August 2015 22:05 UTC

We are actively investigating performance issues that a subset of our users may be experiencing in South Central US. Our DevOps team is actively engaged and investigating further on priority.

We are working to resolve this issue at the earliest and apologize for any inconvenience.

Sincerely,
VS Online Service Delivery Team

 

Microsoft Cloud Data Platform

MSDN Blogs - 5 hours 15 min ago

J’ai récemment eu l’occasion de faire une présentation de l’intégralité de la plateforme de données de Microsoft en me focalisant sur ses composantes Cloud et sur ses solutions de Business Intelligence à destination des utilisateurs. Je souhaitais aborder ce sujet de façon exhaustive tout en offrant une grille de lecture qui illustre la richesse et la cohérence de cette offre. Avec le flux continu de nouveautés sur ce thème, accéléré par les innovations sur Azure, il m’a donc semblé utile de proposer une matrice permettant de structurer cette présentation. C’est le résultat de ces réflexions que je souhaite aujourd’hui partager. L’objectif de ce document n’est donc pas d’étudier dans le détail chacune des composantes de l’offre Microsoft mais d’expliquer à quel type de problématique elles répondent et comment elles peuvent s’imbriquer dans une solution de bout en bout. Evidemment, comme souvent dans ce type d’exercice, certains de mes choix restent sujets à discussion, aussi je vous invite à considérer qu’il s’agit d’une première version et à me faire part de vos commentaires pour l’améliorer…

Introduction La donnée élément clé du cycle de décision

Piloter plus efficacement un système d’information grâce à une meilleure utilisation des données suppose :

  • Un changement de culture qui permette à chacun dans l'organisation de prendre des décisions fondées sur ces données
  • La mise en place de processus et d’outils liés au cycle de vie des données et qui accélèrent leur flux dans toute l'organisation

L’objectif est donc de pouvoir répondre à différents types de question avec les solutions d’affichage ou de manipulation des données les plus adaptées :

  • Que s’est-il passé ? (Rapports statiques)
  • Pourquoi est-ce arrivé ? (Rapports interactifs)
  • Qu’est-il en train de se passer ? (Tableaux de bord temps réel)
  • Que va-t-il se passer ? (Prédictions)

 

Le cycle de vie des données

Le cycle de vie des données peut être décomposé selon trois axes :

  • Tout d'abord, comment collecter et ensuite gérer toutes les données entrant dans l'entreprise ? Au volume de données existant dans l’entreprise s’ajoutent aujourd’hui de nouveaux types de données telles que les données non structurées et les flux de données en continu (« streaming »). Il devient donc nécessaire de faciliter la capture et la gestion de ces données pour les préparer aux étapes suivantes de ce cycle.
  • Une fois ces données recueillies et gérées, il faut être en mesure de les transformer et les analyser et ce, quel que soit leur type, afin de s’assurer qu’elles soient prêtes à être exploitées.
  • Enfin, il faut pouvoir manipuler ces données en utilisant des outils permettant d’obtenir des réponses visuelles pour chaque question que l’on souhaiterait se poser afin de pouvoir prendre des décisions.
  La plateforme de données Microsoft

Microsoft fournit une plateforme de données cohérente offrant la capacité à gérer le cycle de vie des données de bout à bout afin d’en obtenir la meilleure exploitation. Cette proposition de valeur est rehaussée par la flexibilité du choix des éléments constitutifs de la solution à déployer (Cloud ou OnPremise).
Plus concrètement, si l’on considère l’exemple suivant de flux de donnée au sein d’un système d’information, on se rend rapidement compte de la nécessité de proposer un découpage plus fin que la grille d’analyse sur trois axes précédemment évoquée.

Sur chacun des axes se distinguent de multiples sous-rubriques en fonction, par exemple, du type de données ou de la nature des transformations opérées. S’y ajoute également la notion de services applicatifs orientés données.
Voici donc la grille d’analyse que je propose afin de passer en revue l’ensemble des composantes de la plateforme de données de Microsoft, en la restreignant volontairement à ses composantes Cloud et aux solutions de Business Intelligence à destination des utilisateurs.

L’objectif de la suite de cet article est donc d’établir une correspondance entre chacun des blocs de ce schéma et une ou plusieurs briques de l’offre Microsoft.

Collecter et gérer l’information

Dans un premier temps, il s'agit donc de faire l’inventaire des solutions permettant de capturer et de gérer les données, qu’elles soient structurées ou non, statiques ou propagées en continu, à demeure ou dans le Cloud.

Base de données relationnelles Azure SQL Database

Azure SQL Database est un service Cloud de mise à disposition de base de données SQL hautement disponible. Toutes les opérations d’administration et d’optimisation correspondantes sont entièrement prises en charge par Microsoft. Le « provisioning » d’un nouveau serveur ou d’une nouvelle base d’une taille maximale de 500 GB est réalisé en l’espace de quelques secondes. Le service est disponible sur l’ensemble des DCs Azure avec un SLA  de 99.99%. Il est facturé en fonction de la consommation (à l’heure) et propose 6 niveaux de performances pour 3 niveaux de service : Basic, Standard, et Premium. Il offre différentes options (« Self-service restore », « Active geo-replication », « Auto failover »). Azure SQL Database est compatible à 100% avec les outils (Management Studio), les frameworks de développement et les bases de données SQL Server 2014.


 
Azure SQL Database offre des fonctions avancées de backup et de réplication inter-datacenters. Les services déjà disponibles comme les Elastic Database Tools, mais surtout les nouveautés comme les Elastic Database Pools, complétés par les Elastic Database Query et les Elastic Database Jobs étendent les possibilités en permettant d’offrir un environnement Database-as-a-Service capable de gérer des charges non prédictibles pour des applications SaaS d’échelle très significative, sans remise en cause des outils de management ou de développement existants.

SQL Server en IaaS

Dans l’environnement IaaS (Infrastructure as a Service) proposé avec Azure, il est également possible d’installer et configurer un serveur SQL et ses services associés, de même que l’on peut déployer des bases de données relationnelles propriétaires Oracle, IBM DB2 ou issues du monde de l’Open Source comme MySQL.
En complément des bonnes pratiques habituelles (indexes, plans de maintenances, optimisation du schéma, des requêtes, de tempdb), il faut veiller à prendre en compte certaines spécificités liées au Cloud et notamment optimiser les entrées/sorties sur le stockage, qui, rappelons-le, est un stockage sur un système de fichiers accessible par le réseau. Il est notamment recommandé d’utiliser :

  • un maximum de disques via Disk Stripping (Windows Server Storage Spaces, jusqu’à 64 disques, séparer fichiers de données et fichiers de logs sur des pools distincts)
  • des achines G ou D (tempdb sur le disque temporaire SSD, Buffer Pool Extension si lecture intensive, sur machines G : In-Memory)
  • Azure Premium Storage et des machines DS (5000 IOPS par disque, max 50 000 IOPS par machine)

Des images pré-optimisées sont d’ailleurs fournies nativement dans la Galerie Azure (« SQL Server 2014 Enterprise Optimized for DataWarehousing on Windows Server 2012 R2 » et « SQL Server 2014 Enterprise Optimized for Transactional Workloads on Windows Server 2012 R2 »).

No SQL Document DB

Document DB est un service de mise à disposition de base de données NoSQL entièrement géré par Microsoft Azure, à destination des applications Cloud, facilitant le développement itératif et l’évolution du modèle de données. Document DB offre un support natif pour JavaScript, les requêtes SQL, ainsi qu’un traitement transactionnel intégré de JavaScript associé à un modèle fondé sur des documents JSON sans schéma (« Self-describing », « self-contained ») et une indexation automatique.

 

Table Storage

La plateforme Microsoft Azure offre des services de stockage reposant sur un mécanisme scalable et hautement  disponible (avec une géo-réplication en option) permettant de gérer des volumétries de données très conséquentes, de les exposer via API REST pour un usage intra-Datacenter ou extérieur et de les sécuriser. Au sein de ces services, Azure Table Storage offre des fonctions NoSQL de type « clé/valeur » pour les applications devant stocker de grandes quantités de données non structurées. Les tables constituent un service géré certifié ISO 27001, capable d'évoluer automatiquement pour prendre en charge un débit et un volume conséquents jusqu'à 500 téraoctets, accessible de n'importe où, via des API REST ou des API managées.

Données non structurées Azure Blob Storage

Autre composante des services de stockage Azure, les Blobs constituent la manière la plus simple de stocker d'importants volumes de données binaires ou de textes non structurés tels que des fichiers vidéo, audio et des images. Il s’agit également d’un service géré certifié ISO 27001, ouvert à des API REST ou managées.

Azure Premium Storage

Avec l'introduction de Premium Storage, Microsoft Azure offre maintenant deux types de stockage durable : Premium et Standard. Le stockage Premium se distingue en permettant de conserver les données sur des disques SSD (« Solid State Drive »). Il est particulièrement adapté aux scénarios OLTP, Big Data et Data Warehousing  (pour des plateformes telles que SQL Server, MongoDB, Cassandra,…) exigeants en termes de performances sur les entrées-sortie et de faible latence (moins de 1ms de latence en lecture). Premium Storage est actuellement disponible pour les Page Blobs et les disques de données utilisés par les Machines virtuelles (Jusqu’à 32 To par machine virtuelle et 50 000 IO/s par machine virtuelle).

WASB

WASB est une implémentation de HDFS (Hadoop Distributed File Store) sur Azure Blob Storage pour le service HDInsight (que nous verrons un peu plus loin dans la suite de cet article). Il constitue une alternative au système de fichiers distribués attachés localement sur les nœuds de calcul d’un cluster Hadoop, avec un accès proposé en utilisant l'URI complet : HDFS: / / <namenodehost>/<path>. Avec WASB, les mêmes données peuvent être stockées dans les Blob Azure. Pour leur usage HDInsight, la syntaxe est : wasb [s]:// <containername>@<accountname>.blob.core.windows.net/ <path>.

Azure HDInsight HBase

Azure HDInsight HBase est le service qui permet de configurer dans Azure des clusters HBase pour stocker de gros volumes de données directement dans le stockage Blob Azure avec une faible latence et les analyser avec des jobs Hadoop. HBase est une base de données Apache Open Source NoSQL « orientée colonne » construite sur Hadoop. Elle fournit un accès aléatoire et une forte cohérence pour grandes quantités de données non structurées et semi-structurées. Les données sont stockées dans les lignes d’une table et regroupées au sein d’une ligne par « famille de colonne ». La scalabilité de HBase (fondé sur le modèle « BigTable » de Google) lui permet de gérer plusieurs pétaoctets de données sur des milliers de nœuds. L’implémentation HDInsight HBase se fonde sur l’architecture de scale-out de HBase pour offrir un sharding automatique des tables, une forte cohérence pour les lectures et écritures et un basculement automatique. La performance est renforcée par la mise en cache en mémoire sur la lecture et un débit élevé en écriture.

Data Lake

Azure Data Lake est un référentiel construit comme un magasin de fichiers distribués à très grande échelle, sans limite de taille, pour le traitement analytique de  données volumineuses. Cela permet de stocker au même endroit de multiples types de données (relationnelles, non relationnelles,…) avant toute définition formelle de schéma ou contrainte de transformation et de les analyser dans leur format natif. Azure Data Lake est compatible avec HDFS (Hadoop Distributed File Store - WebHDFS 2.7), ce qui favorise son intégration avec des solutions Hadoop comme Azure HDInsight, Hortonworks, and Cloudera et le rend accessible par l’ensemble des projets Open Source compatibles HDFS (Spark, Storm, Flume, Sqoop, Kafka, R,...). Il fournit un stockage illimité, la possibilité de stocker des fichiers uniques de taille de l’ordre du pétaoctet avec des accès en lecture/écriture bénéficiant d’une haute fréquence et d’une faible latence, qui sont adaptées aux flux volumineux du Big Data.
 

Collecte de données en streaming

L’ingestion de données peut être gérée de multiples façons dans Azure.

Azure Service Bus

Azure Service Bus est un service middleware Azure fondé sur la mise en œuvre d’un pattern de « publication/souscription ». Il permet de séparer le trafic de messagerie entre de multiples rubriques (les Service Bus Topics) afin de maximiser le débit.

Azure Event Hub

Event Hub est un service de collecte de données en streaming qui se distingue par sa capacité à proposer un service de réception évolutif, capable de prendre en charge des profils de charge variables, ainsi que des pics causés par une connectivité intermittente. Event Hub offre en effet un mécanisme de type publication-souscription pouvant recevoir des millions d’événements par seconde, tout en conservant l’ordre des évènements. La prise en charge de protocoles standards comme AMQP ou HTTPS permet à de nombreuses solutions de pouvoir interagir avec Event Hub. Des bibliothèques clientes natives existent également pour les plateformes les plus courantes.

Transformer et analyser les données

Le monde connecté d’aujourd’hui est défini par le Big Data. En effet, une fois les données collectées, il est nécessaire de les stocker et de les transformer, sachant que les devices et applications connectés peuvent produire des volumes de données très importants.

Intégration et orchestration Azure Data Factory

Azure Data Factory est un service Cloud entièrement géré qui le facilite l’intégration des étapes de stockage, de traitement, et de mouvement de données au sein de pipelines de production, évolutifs et fiables. Azure Data Factory facilite la coordination et la gestion des sources de données relationnelles et non-relationnelles à demeure ou dans le Cloud (SQL Server, Azure Blob, Tables, HDInsight, SQL Databases,…). L’accès aux données locales est pris en charge via une passerelle de gestion des données qui permet une configuration et une sécurisation des connexions aux serveurs SQL locaux. Les mécanismes natifs de supervision d’Azure Data Factory permettent de considérablement réduire les coûts opérationnels.

Power Query

Power Query est un addin Office qui permet de facilement découvrir des données provenant de sources de données publiques ou d'entreprises. Il inclut des fonctions de recherche, ainsi que des capacités de transformation et fusion de données provenant de plusieurs sources. 

Data Warehouse et analyse historique des données Azure Data Warehouse (Preview)

Azure SQL Data Warehouse est une solution Cloud de DataWarehouse-as-a-service bâtie sur l'architecture de traitement massivement parallèle de SQL Server. Ce service peut dynamiquement se redimensionner en fonction des requêtes (avec une facturation à l’usage). Il permet aux utilisateurs d'utiliser leurs compétences T-SQL existantes pour exécuter des requêtes sur un ensemble de données structurées et non structurées, sur des volumes de l’ordre du pétaoctet. Il supporte les requêtes Polybase qui permettent de requêter simultanément des données Hadoop et des données relationnelles et s'intègre avec les outils existants et des solutions comme Azure HDInsight, Azure Machine Learning, Azure Data Factory ou PowerBI.

Power Pivot

Power Pivot est un addin Excel qui permet de modéliser et transformer très rapidement de gros volumes de données (des millions de lignes) grâce au moteur analytique en mémoire x-velocity (algorithmes Vertipaq). Il permet d’importer ces données de multiples sources (bases de données relationnelles, multidimensionnelles, services Cloud, fichiers Excel, fichiers texte et données sur le Web) dans un seul classeur Excel. Il permet de créer des modèles mettant en œuvre des relations entre des données hétérogènes, de créer des colonnes calculées à l'aide de formules et des mesures personnalisées associées à des indicateurs de performance clé, construire des tableaux et des graphiques croisés dynamiques, afin de pouvoir analyser les données.

Big Data Azure HDInsight  Hadoop

Azure HDInsight Hadoop est une distribution Apache Hadoop proposée sur le Cloud Microsoft Azure. Hadoop est un framework Open Source Apache qui cible les applications distribuées qui consomment des gros volumes de données. Il est composé de multiples projets. HDFS (Hadoop Distributed File System) est le système de fichiers de Hadoop. Il permet un stockage distribué de fichiers très volumineux (du gigaoctet à plusieurs téraoctets) sur plusieurs ordinateurs. MapReduce est le modèle de programmation qui effectue les opérations de filtrage, de tri et d'autres commandes liées à l'obtention et à la transformation de données en appliquant des algorithmes parallèles et distribués. A ces briques Hadoop s'ajoutent des projets Open Source comme HBase, R, cochon, ruche, Flume, cornac, Avro, Zookeeper, .... Le service HDInsight est architecturé pour gérer et analyser une quantité quelconque de données non structurées ou semi-structurées en proposant des extensions de programmation pour de nombreux langages tels que C#, Java et .NET.

Azure HDInsight Spark (Preview)

Azure HDInsight Spark est le service Azure permettant de provisionner, en une dizaine de minutes, un cluster de serveurs pré-configurés avec le framework Open Source Apache Spark afin d’offrir un traitement parallèle de données pour les applications analytiques du Big Data. Les capacités de calcul du moteur Spark sont optimisées pour travailler en mémoire, privilégier la vitesse et la facilité d'utilisation. HDInsight Spark est compatible avec stockage Blob Azure (WASB). Il permet également l’analyse de données en temps réel, grâce aux connecteurs natifs de Spark, qui permettent d'ingérer des données provenant de nombreuses sources (Kafka, Flume, Twitter, ZeroMQ, sockets TCP) et grâce au support d’Azure Event Hub. 
 

Analyse temps réel Azure Stream Analytics

Le service Azure Stream Analytics est issu des travaux de Microsoft Research. Ce moteur de traitement d’événements permet de traiter des informations issues de multiples sources, notamment les données en provenance d’Event Hub, afin d’analyser en « temps réel » des millions d’événements par seconde.  Stream Analytics permet de comparer plusieurs flux en temps réel, et d’intégrer dans l’analyse des valeurs et des modèles historiques en bénéficiant d’un débit élevé, d’une faible latence et d’une résilience garantie. Stream Analytics permet ainsi la détection des anomalies, la transformation des données entrantes, l’alimentation de tableaux de bord en temps réel et offre la possibilité de déclencher une alerte lorsqu’une erreur ou condition spécifique apparaît dans le flux. Stream Analytics propose un langage SQL pour décrire les transformations souhaitées en fournissant une gamme d’opérations sur une fenêtre d’observation temporelle permettant d’appliquer de simples filtres ou des agrégats plus complexes.
 

Event Processor Host

Il est possible de développer un service d’analyse en temps réel des données issues de l’Event Hub en implémentant l’interface IEventProcessor et en enregistrant l’objet correspondant dans un EventProcessorHost, qui est thread safe. Au final, une seule interface à connaître et la beauté de cette interface, c'est qu‘elle masque complètement la complexité de ce type de traitement. En effet, du point de vue du développeur, il suffit de parcourir et filtrer une boucle de messages.

Azure HDInsight Storm (Preview)

Azure HDInsight Storm est le service qui permet de configurer dans Azure un cluster Apache Storm managé. Apache Storm est un système de calcul Open Source distribué et résilient, pour le traitement de données, en temps réel, avec Hadoop. Ces données peuvent être issues de files d’attente Service Bus ou Hub Event. Les clusters HDInsight Storm peuvent également être configurés sur un réseau virtuel Azure (VNET) extensible avec un VPN, afin d’offrir une communication sécurisée vis-à-vis de ressources localisées au sein d’un DataCenter privé.

Analyse prédictive

Azure Machine Learning est un service intégralement géré par Microsoft Azure. Il permet de prévoir les futurs comportements ou tendances, en fondant ces analyses prédictives sur des données précédemment collectées. Azure Machine Learning offre une expérimentation rapide pour créer un meilleur modèle avec l’aide de bibliothèques de modèles réutilisables. Il permet une composition visuelle de bout en bout sur le flux de données et supporte l’environnement de programmation Open Source « R » pour les statistiques et l’exploration de données. Enfin, il est possible de déployer le modèle comme un Service Web hébergé dans Azure.

Manipuler l’information et prendre des décisions

Les données ne commencent à avoir de la valeur qu’à partir du moment où l’on est en mesure de les manipuler pour en retirer de nouvelles connaissances. Les solutions à mettre en place doivent proposer une vue de bout à bout de tous les types de données (structurées, non structurées, précédemment archivées ou mis au rebut).
Même si ces données ont été intégrées ou transformées, elles ne sont pas nécessairement localisées au même endroit : il faut donc pouvoir offrir un accès sécurisé à de multiples sources (données internes ou résidant dans les solutions SaaS et autres emplacements externes). Chacun doit avoir la possibilité de pouvoir prendre des décisions sur la base de ces données. Il faut donc rendre ces données disponibles en fonction de l’utilisateur, de ses niveaux d’accès, de ses besoins, et du moment. Enfin, ces données doivent être accessibles en situation de mobilité quel que soit le lieu, l’instant, ou le device utilisé…

Power View

Power View est un addin Excel qui permet de facilement créer des rapports visuels interactifs et qui offre une vue analytique par le biais de cartes interactives ou graphiques pour faciliter l’exploration des données et la collaboration autour de la visualisation de ces données.

Power Map

Power Map est un addin Excel qui s’inspire des travaux de Microsoft Research sur le projet « WorldWide Telescope ». Il ajoute une nouvelle dimension en offrant la possibilité de tracer visuellement des données géographiques et temporelles sur Bing Maps, d'analyser ces données en 3D et de créer des visites interactives que l’on peut partager.

Power BI

Power BI est service Cloud d'exploration de données visuelles qui permet d'analyser les données et créer des rapports. Il intègre des fonctions d’acquisition et de préparation des données similaires à celles de Power Query. Il permet la consolidation de plusieurs sources de données, à demeure ou dans le Cloud, pour définir leur structure, leur transformation, leur analyse, leur exploration, puis leur partage sécurisé au sein de l’organisation. Les rapports interactifs sont construits en ligne ou avec Power BI Desktop par simple drag-and-drop d’une large gamme de contrôles de visualisation de données. Ils sont accessibles en ligne (HTML5), via Power BI Desktop ou depuis une application mobile.

 

Datazen

Datazen est une solution récemment acquise par Microsoft, qui offre des fonctions très avancées de visualisation interactive de données et d’indicateurs de performance sur des scénarios connectés ou déconnectés pour tout type de device.

Services de données d’application

Lorsque l’on souhaite bâtir une application dans le Cloud, il y a de multiples points à considérer pour implémenter certaines fonctions comme la recherche, ou pour améliorer la réactivité et les performances par des mécanismes de cache. Il devient alors pertinent de s’intéresser à la mise en œuvre de services applicatifs orientés données (cache, service de recherche, …).

Cache Applicatif En fournissant un accès optimisé sur les données via un stockage en mémoire (localement ou sur un service dédié), les différents services Microsoft Azure Cache offrent un premier niveau de réponse à ce type d’exigence. Les services de Cache ajoutent des options de contrôle et de résilience supplémentaires telles que la haute disponibilité pour garantir que les données mises en cache soient conservées.
In-Role Cache Il s'agit d'un cache auto-hébergé, accessible via le SDK Azure permettant d'effectuer la mise en cache à l'aide d'une instance dédiée Web Role ou de Worker Role pour une application déployée dans un Cloud Service PaaS. Cette solution offre une certaine flexibilité en termes d'options de déploiement et de taille, mais se limite à ce contexte d’utilisation. La facturation correspond à celle du Cloud Service hébergeant le Cache.
Azure Redis Cache

Azure Redis Cache est un service construit sur la solution Open Source Redis Cache. Ce service donne accès à un cache Redis sécurisé, dédié et géré par Microsoft. A la différence du In-Role Cache, un cache créé à l'aide d'Azure Redis Cache est accessible depuis n'importe quel type d’application Azure.

Service de recherche
Azure Search est un service Cloud qui facilite l'ajout de fonctions de recherche à un site web ou une application. Ce service est fondé sur le moteur de recherche Elasticsearch. Il offre donc la recherche « full-text », ainsi que des fonctions plus avancées telles que les suggestions de requête basées sur une saisie partielle, le surlignage et la navigation à facettes. Il intègre le support du langage naturel, en appliquant des règles linguistiques en fonction de la langue spécifiée. Enfin, et surtout, il est entièrement géré. Cette approche « Search as a Service » élimine la complexité liée à la configuration ainsi qu’à la gestion d’un index de recherche et permet de bénéficier d’une haute disponibilité sur le service, de son adaptation à la charge (capacité de stockage et de recherche) et des mises à jour du moteur.
Conclusion Microsoft propose une plate-forme de données complète et cohérente pour gérer le cycle de vie des données en offrant une totale flexibilité sur le choix de solution à demeure ou dans le Cloud. Le périmètre traité dans cet article était volontairement limité aux services orientés données de la plateforme Cloud Microsoft Azure et leur utilisation conjointe avec la gamme d’outils Microsoft de Business Intelligence accessibles en mode Self-Service.
La matrice suivante établit une correspondance entre chacune des dimensions liées au cycle de vie des différents types de données et la ou les briques proposées par Microsoft pour répondre aux problématiques sous-jacentes.

How to view query plans from Query Store in Management Studio

MSDN Blogs - 5 hours 34 min ago

Query Store is a great new feature in SQL Server 2016 and SQL Azure Database. Among other things, it captures and stores query plans for queries that execute on a SQL Server instance, so that they can be reviewed later, i.e. for performance troubleshooting. The plans are exposed in the sys.query_store_plan view, in the query_plan column. Even though the plan is stored in its XML representation, the data type of this column is nvarchar(max). This avoids some problems with using the xml data type. So far, so good.

But when I tried to copy the plan from the SSMS grid output and paste the XML into a new window, I quickly found that for larger plans, the XML text becomes truncated. This is an SSMS limitation. Luckily, there is a simple workaround that, somewhat ironically, uses XML support in the SQL Server query engine. It is based on a trick that I learned from SQL Server MVP Adam Machanic (blog).

Here is a sample query that shows how it works:

SELECT CONVERT(nvarchar(max), p.query_plan, 1) AS [processing-instruction(query_plan)]

FROM sys.query_store_plan p

WHERE p.plan_id = 13959

FOR XML PATH('');

 

This returns a single row, single column result set that contains an XML value that is clickable in the SSMS output grid. When clicked, this opens a new window, which contains the full query plan XML text wrapped as an XML tag, looking like this:

<?query_plan <ShowPlanXML ... </ShowPlanXML>?>

 

At this point, you can remove <?query_plan and ?>, and save the resulting text in a file with .sqlplan extension. Close and re-open this file to view the graphical query plan.

Tip of the Day: How to force the max message size for cloud users

MSDN Blogs - 5 hours 39 min ago

 

If you are running a hybrid setup and your company policy is forcing max message size of 10mb then how you can force cloud users not to send more than 10mb ?

It’s not just that the cloud users can send more than 15mb emails, they also will have NDRs from the on-prem servers if they send internal communication more than 15mb.

Changing the max send size or receive size is not something you can achieve in the cloud even if you escalated to the product group and the Microsoft support however you can create a transport rule in the office365 portal to drop any emails that has an attachment larger than or equal 15mb

Enjoy

Ahmed Ashour
Support Escalation Engineer

The Ultimate Personal Productivity Platform is You

MSDN Blogs - 6 hours 36 min ago

“Amateurs sit and wait for inspiration, the rest of us just get up and go to work.” ― Stephen King

The ultimate personal productivity platform is you.

Let’s just put that on the table right up front so you know where personal productivity ultimately comes from.  It’s you.

I can’t possibly give you anything that will help you perform better than an organized mind firing on all cylinders combined with self-awareness.

You are the one that ultimately has to envision your future.  You are the one that ultimately has to focus your attention.  You are the one that ultimately needs to choose your goals.  You are the one that ultimately has to find your motivation.  You are the one that ultimately needs to manage your energy.  You are the one that ultimately needs to manage your time.  You are the one that ultimately needs to take action.  You are the one that needs to balance work and life.

That’s a lot for you to do.

So the question isn’t are you capable?  Of course you are.

The real question is, how do you make the most of you?

Agile Results is a personal productivity platform to help you make the most of what you’ve got.

Agile Results is a simple system for getting better results.  It combines proven practices for productivity, time management, and motivation into a simple system you can use to achieve better, faster, easier results for work and life.

Agile Results works by integrating and synthesizing positive psychology, sport psychology, project management skills, and peak performance insights into little behavior changes you can do each day.  It’s also based on more than 10 years of extensive trial and error to help people achieve high performance.

If you don’t know how to get started, start simple:

Ask yourself the following question:  “What are three things I want to achieve today?”

And write those down.   That’s it.

You’re doing Agile Results.

Tip of the Day: How to limit SMTP applications to send from a specific mailbox

MSDN Blogs - 7 hours 11 min ago

 

It’s easy to allow an smtp application to send emails through your exchange servers but it’s not easy to force the application admin to use a certain sender address.

The receive connectors doesn’t provide such feature but you still have the option to create a transport rule to check the header and reject the email unless it’s coming from the desired mailbox.

 

Enjoy

Ahmed Ashour
Support Escalation Engineer

Российская команда IzHard–победитель Imagine Cup в категории игры-находит издателя.

MSDN Blogs - 8 hours 18 min ago

Вот и закончился очередной международный финал Imagine Cup! При этом он закончился весьма успешно для российской команды IzHard, которая представляла на конкурс свою игру OVIVO. Команда питерских студентов стала победителем конкурса в категории игры!

Это уже второй год подряд, когда российские игры становятся победителями конкурса. В прошлом году победу России принесла команда Brainy Studio из Перми.

На супер-финале команда встретилась с победителями в других категориях, и представила свой проект супер-жюри, состоящему из Алекса Кипмана, создателя HoloLens, Дженса Бергенстена, главного разработчика Minecraft и звезды сериала “Кремниевая долина” Томаса Миддлдитча. Супер-победителем этого года стала команда из Бразилии, представившая проект автоматического построения выкроек одежды, в т.ч. для людей с ограниченными возможностями.

Приятно, что после победы в Imagine Cup ребята сразу нашли издателя в лице российской компании Nekki. Они сами так комментируют это:

Еще на конференции DevGAMM этой осенью Nekki обратила на нас внимание и мы начали вести переговоры. Но, поскольку на тот момент OVIVO участвовала в Microsoft Imagine Cup, переговоры пришлось отложить. И вот, после финала Imagine Cup, мы смогли договориться с Nekki об издании OVIVO.

Для нас ключевым моментом было то, что издатель не должен вмешиваться в процесс создания игры, менять стилистику, арт и общий концепт. Компания Nekki готова обеспечить такие условия, при этом оказать большую маркетинговую поддержку и помощь в релизе игры.

Nekki - именно тот издатель, которого мы искали. Надеемся, что наше сотрудничество приведет к выпуску игры OVIVO именно в том варианте, в котором она задумывалась: медитативный платформер с элементами головоломки, оптическими иллюзиями и затягивающим сюжетом.

 

В результате мы можем надеяться, что замечательная студенческая игра уже этой осенью придет на наши смартфоны и подарит нам незабываемые минуты медитативного погружения во вселенную OVIVO.

Locale (Culture) Data Churn

MSDN Blogs - 8 hours 28 min ago

Data Churn

Some of you have noticed churn in the Locale Data (which ends up as Culture data in .Net).  I've mentioned before that this stuff shouldn't be considered stable, but in Windows 10 we have a little more churn than normal.

What happens is that, over time, locale data preferences change around the world.  Often it's subtle or barely noticeable, especially for those of us in a different country or speaking a different language, but it happens all the time.  We support hundreds of locales so we end up getting several requests to adjust data a week!  Wow.

Some of the reasons for the churn are more obvious than others.  For example, many countries have adopted the Euro over the last couple decades.  A bunch all at once, but more have trickled in, and some are still on track to adopt it in the future.  When that happens, we end up changing the default currency for that locale to the Euro.  Similarly other countries have revalued their currency or modified their currency symbol or any number of other things that impacts their currency format.  And that's just one of the fields that we have data for in each locale!

Since the data changes, it's a great plan to not depend on locale sensitive formats when serializing or deserializing data.  Currency in particular is important for that, your application should know that it's saving it as RON (Romanian Lei) instead of Euros.  So that when Romania adopts the Euro in a few years your figures are still correct.

It isn't just currency, but pretty much every field has changed.  Spelling reforms have caused the days of the week and month to change in some locales.  Shifting cultural preferences have changed date separators.  Sometimes the data was just plain incorrect.

Do it my way!

Sometimes a single locale has differences within itself.  Sometimes that is between the "Official" behavior and "Common Practice".  Sometime's it's a regional or ethnic practice within that country.  Or a business could specify a format used by it's home office even if it was less common in the regional office's locale.

We can also see stylistic variations.  For example / is common as a date separator in the US.  But you also see - or . or space.  Sometimes it differs just for aesthetics or to look modern.  Over time in some locales those variations become the predominant form.

Interestingly sometimes the computer itself defines the behavior in the locale.  Such as when the rules are ambiguous, but computer manufacturers implement a specific behavior and then that becomes common practice. 

Have it your way

In Windows, we do have a way to specify your own behavior if you don't like the in-box behavior.  The simplest method that works a lot of the time is to use the user overrides in the Region control panel.  For more consistent behavior across a machine or enterprise, the Locale Builder can be used to create a custom locale perfect for your business requirements.  I just blogged an example of how to override the Finnish time formats with the Locale Builder if you want a head start.

 

 

Detecting browser language using JavaScript

MSDN Blogs - 9 hours 13 min ago

 

I was recently working on helping someone localize their ADFS 3.0 login page. They had changed the theme and had some custom text like their organization name and some instructions to login. The challenge was localizing this custom text when people from a different country say France with their language set as French (FR) tries to access the site.\

Maybe there are better ways to this is ADFS. I am no ADFS expert but I was told that you got to use it using the exported OnLoad JavaScript method. So I thought of writing something in JavaScript to help identify the default language. I initially tried to use the navigator to get the language

var language = window.navigator.userLanguage || window.navigator.language;
alert(language);

Soon I understood that this wont work since its returning the language of the browser itself as in if you installed English version of Chrome, it would return EN. This is not what I wanted. So what I had to do was extract it from the Request Header. The header would look something like this:

Connection: Keep-Alive
Accept: text/html, application/xhtml+xml, image/jxr, */*
Accept-Encoding: gzip, deflate, peerdist
Accept-Language: fr-FR, fr; q=0.8, en-US; q=0.5, en; q=0.3
Cookie: glimpsePolicy=On; shopper=7cc14a57-c195-498b-b8f8-825d61434119
Host: localhost:57350
User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; Touch; rv:11.0) like Gecko
DNT: 1
X-P2P-PeerDist: Version=1.1
X-P2P-PeerDistEx: MinContentInformation=1.0, MaxContentInformation=2.0

The highlighted header is what we are interested in. Since we can get this from the JavaScript, I wrote a simple Web API and hosted in Azure.

public class LanguageController : ApiController
    {
        // GET api/Language
        public IEnumerable<string> Get()
        {
            return Request.Headers.AcceptLanguage.ToList().Select(lang => lang.Value).ToList();
        }
    }

This API is hosted in http://detectbrowserlanguage.azurewebsites.net/api/language and as you can see it returns an array of all accepted languages. The rest is simple CSS and JQuery to do the trick. One other thing was I could not have references the JQuery using script tags so I ended up adding JQuery through my JavaScript itself. Looks something like this:

<html>
<head>
<style>
   p {
    display: none;
   }
   body:lang(en) p:lang(en) {
    display : inline;
   }
   body:lang(cz) p:lang(cz) {
    display : inline;
   }
   body:lang(en-US) p:lang(en-US) {
    display : inline;
   }
</style>
<script>
 
    function loadScript(url, callback) {

        var script = document.createElement("script")
        script.type = "text/javascript";

        if (script.readyState) { //IE
            script.onreadystatechange = function () {
                if (script.readyState == "loaded" || script.readyState == "complete") {
                    script.onreadystatechange = null;
                    callback();
                }
            };
        } else { //Others
            script.onload = function () {
                callback();
            };
        }

        script.src = url;
        document.getElementsByTagName("head")[0].appendChild(script);
    }

    loadScript("http://ajax.aspnetcdn.com/ajax/jQuery/jquery-2.0.3.min.js", function () {       
         // Send an AJAX request
        $.getJSON("http://detectbrowserlanguage.azurewebsites.net/api/language")
         .done(function (data) {
            // On success, 'data' contains a list of products.
            if(data && data.length>0){
                $('body').prop("lang",data[0]);
            }
           
            $.each(data, function (index,language) {
              // Add a list item for the product.                           
              //$('body').prop("lang",language);
            });
        });
    });
</script>
</head>
<body class="cz">   
   <div>
     <p lang="en">Hello</p>
     <p lang="cz">Ahoj</p>
     <p lang="ru">Privet</p>
   </div>
</body>
</html>

This loads the appropriate greeting text to match the default language of the end user. Of course this does not support all languages but you get the point.

Hope this helps if you are trying to get something similar done.

Service account is not secure in its current configuration

MSDN Blogs - 9 hours 54 min ago
Used to secure the following MIM PAM Service Accounts Application Pool ( For Rest API ) PAM Component Service Privileged Access Management Monitoring Service Issue: When installing the "PAM" Privileged Access Management Features you are presented with one or all of the below warnings about the service accounts to be used. This is a warning and will not prevent you from continuing but it is recommended to secure the accounts at your earliest availability. See Resolution ...(read more)

Warning 25051 / Service Account is not secure in its current configuration

MSDN Blogs - 10 hours 21 min ago
This can be used for to Secure the following accounts FIM Synchronization Service / MIM Synchronization Service FIMService / MIM Service Note: This is not for the Service accounts to be used for the PAM Features see Service account is not secure in its current configuration Issue: When installing the Forefront Identity Manager Synchronization Service or the Forefront Identity Manager Portal you may be presented with a popup Warning 25051 which informs you that the service...(read more)

Architecting Modern E-Commerce Web Application using Microsoft Azure

MSDN Blogs - 10 hours 52 min ago

 

I have always been asked this question when I go to customers site. What is the best architecture? How to design an application which is best in maintainability, performance, scale, security, and the list goes on and on. Off late, I’m preparing for my Azure Architecture certification so thought this will be a good thing blog about.

Well there is no best architecture or bad architecture it really depends on what you are doing and how you are architecting your application. Like how you travel or go to a specific destination, there could be multiple paths to reach your target and there could also be multiple modes to reach a destination. Now the question is, if I select a specific mode what is the optimal way to reach a destination. Again optimal is relative terminology for instance I might want to focus on Performance but I really don’t care about security or scale. So there is always a tradeoff between the parameters that you choose. I think I’m talking lot of Gyan here.

Okay let’s focus on some Azure architectural stuff; my intent is to keep an application architecture really simple meanwhile a solid one. So I’m writing my first blog on architecting an application which is an end to end ecommerce application which currently is the new trend in industry which can be developed using various Microsoft Dev technologies in Azure.

Let’s start Vroom Vroom.

Sample E-Commerce Case Study High level Requirements

1. I should be able to view and place an order in my ecommerce application. Let’s take for example the application is built using Asp.Net MVC.

2. My application should send a purchase copy in form of pdf and a text message to customer when he is done purchasing an item.

3. In addition to public facing website, the company also need have a backend web application again built in Asp.Net MVC to view the orders by the technicians and take new orders.

4. I also want an app for my companies delivery guys to keep track of the orders and other details with respect to order.

5. I want to test how my application in terms of how it behaves on peak load. Let’s say on a “Big Super Sale day for my E-Commerce site” or how do I scale the application to cater to the peak load.

6. Find out the performance issues, exceptions and want analytics in the application.

For the moment I want to restrict to this in terms of business requirements. Also, since the company is new we don’t want to focus on the infrastructure but want to put efforts on the core business value.

Okay, so now how would you architect this application?

Like, I said before any functionality can be achieved by multiple paths and modes even this can be architected in many ways. Microsoft Azure makes such tasks of companies life easier by giving the right set of PAAS offerings where you focus on App and Data and nothing else. In Azure we have something called as App services which we will take advantage of to solve this E-Commerce scenario.

Azure App Service lets developers rapidly build, deploy and manage powerful websites and web apps. Build standards-based web apps and APIs using .NET, NodeJS, PHP, Python and Java. Deliver both web and mobile apps for employees or customers using a single back-end. Securely deliver APIs enabling additional apps and devices.

  • Web Apps: Create and deploy mission critical Web Applications that scale with your business previously known as Azure Website. Azure App Service Web Apps is a fully managed platform that enables you to build, deploy and scale enterprise-grade web apps in seconds. Focus on your application code, and let Azure take care of the infrastructure to scale and securely run it for you. Web Apps Gallery, Auto Scaling, Continuous Integration, Webjobs are some of top features in Web apps. We can use Web Apps for creating a customer site and Admin site for our operation team using any of the technologies that you love. I prefer Asp.net MVC but its again your choice.
  • Mobile Apps: It’s easy to rapidly build engaging cross-platform and native apps for iOS, Android, Windows or Mac, store app data in the cloud or on-premises, authenticate users, send push notifications, as well as add your custom backend logic in C# or Node.js. This was previously known as Azure Mobile Service. So we can create a backend for our case study using Mobile Apps.
  • API Apps: It’s a new app type in App Service that lets you easily build and consume Restful APIs in the cloud. With API Apps, teams can easily share APIs with other teams in your organization with your own private organizational gallery of APIs. APIs can also be shared publicly and monetized for third-party developers. API Apps makes it easy to secure your APIs. Secure your API Apps with support for Azure Active Directory, including single sign-on support for many third-party services. Rich support for social authentication to Google, Microsoft, Facebook, and Twitter is also available. We can create some API’s and expose it to be consumed by our logic apps or even by our Web Apps. 
  • Logic Apps: It’s a new app type in App Service that lets you easily automate business process. Logic apps enable you to develop and deliver powerful integration solutions with ease. With Logic apps now you can visually create business processes and workflows. Deliver integration capabilities in Web, Mobile and API apps. We can write the custom workflows in the applications right from placing an order to delivering an order to customers of my ecommerce engine.

Let’s continue to fit the customer scenario in line with the Azure App Services offerings. This is how I think you should architect your application.

Sample E-Commerce Architecture

App Insights: Visual Studio Application Insights monitors your live application to help you detect and diagnose performance issues and exceptions, and discover how your app is used. It can be used with a wide variety of application types including Asp.net Web Apps, Windows Phone or any other .Net Apps. It also works for apps that are hosted on your own on-premises IIS servers.

VSO Load Test: We can find performance problems in your app before customers do. We want to make that our app can handle traffic for your next launch or marketing campaign. We can run cloud-based load tests in almost no time with Visual Studio Online.

Cloud Service: Deploy highly-available, infinitely-scalable applications and APIs. You can use Web Roles and Worker roles of Cloud Service to implement PDF receipts generations. Remember you can also do this in the same Web App instance using Webjobs like I said it’s a choice that I would prefer to keep decouple the application for better performance.

Blob Storage: Azure Blob storage is a service for storing large amounts of unstructured data, such as text or binary data, that can be accessed from anywhere in the world via HTTP or HTTPS. You can use Blob storage to expose data publicly to the world, or to store application data privately. I’m proposing Blob for this scenario to store the files which has got the capability for Performing secure backup and disaster recovery of our files.

Hope this is a good read if you are planning to design or architect your modern applications for cloud. You can still add more business requirements and add features to this but I wanted to get started. Hope it’s a good start

Eager to know your thoughts and opinion on this, feel free to drop a comment if you have any questions or opinions below.

Cheers,

Goutham

What’s new on the Power BI Mobile apps?

MSDN Blogs - 11 hours 1 min ago

We are glad to announce another batch of updates to Power BI Mobile apps, including iOS, Android and Windows apps! If you haven’t heard a lot from us lately it’s because we have been working hard to improve our apps experience, performance and quality based on your feedback. Stay tuned for more apps improvements news coming soon on this blog.

Have a new mobile feature or improvement idea? We’re eager to hear about it.
Not a Power BI Mobile user yet? Download the app today to your phone or tablet:

     

New to Power BI mobile apps? Join our coming Webinar on 10/8 to learn more. Register for the webinar

Let’s take a look at what we have added and improved in the last couple of updates:

Improved navigation on Android

We improved the Android app's navigation from tabs to drawer to optimize your experience, maximize available screen real-estate and enable easier and more intuitive navigation through the app's features.

Customized colors for charts and tiles

A recently added feature in Power BI allows you to control and customize your reports and tile visualizations colors. And with our latest mobile updates, you now can consume those custom-colored visualizations in your mobile apps.


View and explore native Excel reports directly from your iPad or Windows App

Power BI apps for iPad and Windows now enable you to natively explore and analyze your Excel workbooks (XLSX or XLSM) connected to Power BI.

Learn more on connecting Excel reports to Power BI.

Touch-optimized navigation between tiles in the Windows app

This cool new capability allows you to browse back and forth through dashboard tiles, exploring them sequentially directly when in focus without the need to return back to the dashboard and select the next tile.  (To focus on a tile simply tap it in your dashboard) This new experience allows quicker and simpler navigation between your mobile dashboard tiles.

 

Improved login and authentication experience 

We improved and added new messaging as part of the app login process to help users understand and troubleshoot different authentication issues for easier and faster resolution. 

We want to hear from you!

Looking for more? Have feedback to share? We encourage you to contact us!
Add your suggestions for new features or vote for already suggested ideas on the Power BI Mobile feedback forum.

Stay tuned for more new and existing content coming soon on the Power BI blog.

Microsoft Student Partner Eva Pardi taps into some serious Azure power

MSDN Blogs - 11 hours 1 min ago

Editor’s Note: This is the first in a new series of monthly guest blog posts from our Microsoft Student Partners all over the world. The inaugural edition of the series is from Eva Pardi, an MSP based in Budapest and Debrecen, Hungary, who has a passion for Microsoft Azure.

When I became a Microsoft Student Partner, I decided to specialize in one very specific area of knowledge – Microsoft Azure. Here’s what I love about it: it feels, to me, like a platform with infinite possibilities. Azure was designed to be easy for developers to use and it gives me the opportunity to do a whole host of things that are important to me as a student developer. Using Azure, I can learn programming languages and learn the ins and outs of building and maintaining databases, among other things.

One of the first things I did using Azure was to create Virtual Machines designed to help me test new operating systems and development tools. For example, I tried Visual Studio 15 with .NET vNext using Azure Virtual Machines. From there, I began working on other projects that make significant use of Azure.

My blog – Information for you, from us – is hosted on Azure Websites, and aims to inform students about the latest news, technologies and devices from Microsoft, as well as cool and interesting ways to use them.

Another cool project I was working on with the help of a few friends is a Web service for people who love to play foosball. It was actually a school project, so we had about two to four months to work on it. To build it, we used Visual Studio with MVC (model-view-controller) and Entity Framework, and the code was written using the C# programming language. Thanks to Entity Framework (EF), it was easier to work with relational data, and we did not have to write too much code. Users can create and save games, players are ranked by ELO points(based on point calculation from the League of Legends). The idea was borne out of our love of foosball and the desire to challenge and play other foosball players from all over the world. As we had to take an exam about the construction and design of our software, we figured to host it in Azure. So I brought the whole project to the cloud with the help of this article on the subject. We plan to improve our Web service in the future with great new features, and we hope that we will have a lot of users who love playing foosball from all over the world.

Right now, I am working on a library management system as a school project at KEA – the Copenhagen School of Design and Technology (Computer Science). Though I built it using Java and leveraging Microsoft Access database software, I intend to host it using Azure and to turn it into another Web service. I came up with the idea for the service after several of my friends borrowed books and DVDs from me. I wanted to log these somewhere to track which resource was given to whom. Like I said, I want to turn this into a Web service, so users can create an account and can manage their own libraries as well.

Before Microsoft made Azure available to student developers for free, it was very difficult for me to show my fellow students how compelling, user friendly and powerful the cloud is. Now, as MySQL is available for students, it is so much easier to hold workshops in universities and secondary schools. I hope I will be able to show other aspiring developers why I love Azure so much, and just how easy it is to use.

While learning to use Azure is pretty intuitive, I made use of many of the resources Microsoft makes available to student developers. I took numerous courses on the Microsoft Virtual Academy focused on coding in general, as well as on Azure. My three favorite were: Microsoft Azure Fundamentals: Websites, Database Fundamentals and the newest Hungarian course, Azure Foundation for IT Professionals. MVA is a great way to learn because you can watch videos about the how to best make use of these technologies and even download helpful snippets of code.

I also attended the AzureHeads training that was held by Microsoft Hungary. The training was a big help in my efforts to pass the MCP (Microsoft Certified Professional) Pro exam called Designing and Developing Microsoft Azure Applications. The good thing was that we did not have to go to school or to the office, but worked at home in our free time – taking the training was extremely convenient!

At the same time, I also participated at the Know it! Prove it! Competition, where I learned a lot about Web, Game, Phone and Cloud development, and I have doubled my accumulated points on MVA!

As you can see, I live and breathe Microsoft Azure! My goal is to become an expert on Azure, keep creating new technologies that tap into the power of the Microsoft cloud and pass on what I’ve learned to other student developers.

If you’re as into developing cloud technologies as I am, I encourage you to check out Microsoft’s free Azure offer for students. It’s a great way to start learning how to develop for the cloud. Once you do that, be sure to sign up to participate in a brand new monthly coding competition from Microsoft Imagine called Hello Cloud – you’ll learn the ins and outs of Azure in no time!

 


“De volta ao básico” - Tracing com o Dynamics CRM

MSDN Blogs - 11 hours 9 min ago

Existem várias formas de ativar os registos no CRM. Uma delas passa por aceder ao registry do Windows (regedit.exe) para ativar os traces no CRM.

O artigo da knowledge base com a presente informação encontra-se no seguinte sítio: https://support.microsoft.com/en-us/kb/907490

Para uma implementação de CRM, abaixo fica uma listagem de todos os locais onde podem ser ligados os registos do CRM:

Componente

Localização da chave no registry

Servidor

HKEY_LOCAL_MACHINE\SOFTWARE\MICROSOFT\MSCRM

Cliente

HKEY_CURRENT_USER\SOFTWARE\MICROSOFT\MSCRMClient

Reporting Services

HKEY_LOCAL_MACHINE\SOFTWARE\MICROSOFT\MSCRMBidsExtensions

Email Router

HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\MSCRMEmail

Data Migration

HKEY_LOCAL_MACHINE\SOFTWARE\MICROSOFT\DATA MIGRATION WIZARD

 

Uma vez localizada a chave para o componente que se pretende, há que introduzir os seguintes valores na mesma:

Chave

Tipo de valor (base)

Valor a colocar

TraceEnabled

DWORD (decimal)

0

TraceRefresh

DWORD (decimal)

1

TraceCallStack

DWORD (decimal)

1

TraceDirectory

REG_SZ

C:\Program Files\Microsoft Dynamics CRM\Trace

TraceCategories

REG_SZ

*:Verbose

TraceFileSizeLimit

DWORD (decimal)

10

 

Para dar início ao registo, basta alterar a chave TraceEnabled para 1 e a chave TraceRefresh para um valor diferente do que está atribuído.

Para terminar o registo, basta alterar a chave TraceEnabled para 0 e a chave TraceRefresh para um valor diferente do que está atribuído.

Os registos devem ser sempre recolhidos o mais próximo possível da situação que se tenta reproduzir. Isto aplica-se principalmente em sistemas muito ativos, que podem gerar um grande número de ficheiros.

Se a situação não puder ser reproduzida, aconselha-se a manutenção de um registo de atividades, onde estejam detalhados as ações tomadas e a data e horas das mesmas, para depois ser possível correlacionar as mesmas com as entradas nos registos.

Até à próxima.

Hugo Durana.

SharePoint 2013: August 2015 Cumulative Update Package Fails to Install

MSDN Blogs - 11 hours 20 min ago

The Problem

The August 2015 Cumulative Update for SharePoint 2013 was released earlier this month as mentioned in Stefan’s Goßner’s blog post here. The installation of the August 2015 Cumulative Update server package may fail with the following error:

“The installation of this package failed”

The error above is a generic error and can occur due to a variety of different reasons such as low disk space, incorrect package download etc. However, for the August 2015 Public Update we have received several reports over the past few days of this issue occurring on multiple machines. In all these occurrences, the root cause of the package installation failure was found to be the following messages in the latest modified MSP log file (e.g. wssmui-en-us_MSPLOG.LOG, but the actual file name in your case could be different depending on which package failed to install) located in the temp folder of the server where you are installing the package (by default, it is C:\Users\username\AppData\Local\Temp\2):

CAQuietExec:  Error 0x8007000d: CAQuietExec Failed

CustomAction RegisterPerfmonManifest returned actual error code 1603 (note this may not be 100% accurate if translation happened inside sandbox)

The Workaround

Important: The workaround involves modifying the registry so please exercise extreme caution while modifying the registry and ensure that you backup the registry before making any edits. It is also important to note that this workaround should only be applied if you have confirmed that the package installation failed due to failure in the custom action RegisterPerfmonManifest by reviewing the MSP log file in the TEMP folder.

To workaround this problem, please complete the following steps on the affected server:

1. Start Registry Editor, and then locate the following key in the registry:

HKEY_LOCAL_MACHINE\Software\Microsoft\Windows NT\CurrentVersion\Perflib

2. In the registry, change the Last Counter value to 1846 (decimal), and change the Last Help value to 1847 (decimal). The following screenshot shows what the values should look like:

3. Exit Registry Editor.

Once the above steps have been applied, please re-run the package installation which should complete successfully.

The Root Cause

The root cause of this issue is not known at the time of writing this blog post. We are investigating this issue internally and I will update this post with more details as soon as they become available.

VS Online/TFS Feature timeline – the UserVoice version

MSDN Blogs - 11 hours 48 min ago

As a follow up to my post yesterday on the Feature timeline refresh, I took a few minutes this morning to walk through our UserVoice site and summarize how the work we are planning over the next several months relates.  This is a different granularity cut (because it’s based on UV suggestions) that what I published yesterday.

I’m not promising that I caught every single one.  And I’m not promising that everyone I’ve listed here will get done this fall (my crystal ball isn’t perfect).  But, based on what I know now, this is a pretty good approximation of the plan.  I stopped when I got down to UV items with less than 100 votes – not because they aren’t good nor because we aren’t doing any of them – only because there’s a ton of them and I had to draw the line somewhere or I’d spend hours more on this exercise.

A few of these are longer term investments and we’ll make significant progress on them this Fall but we won’t complete them until sometime next year.  There are others we are working on but I chose not to list because I don’t expect significant visible progress until early next year.

Hopefully this is also a valuable way for you to look at our plans.

Brian

Pages

Subscribe to Randy Riness @ SPSCC aggregator
Drupal 7 Appliance - Powered by TurnKey Linux