<img src="https://secure.leadforensics.com/133892.png" alt="" style="display:none;">

Vad är Microsoft Fabric? Microsoft Fabric är en heltäckande analyslösning för företag som omfattar allt från dataförflyttning till data sceince, realtidsanalys och business intelligence. Det erbjuder en omfattande uppsättning tjänster, inklusive data lake, datatransformation och integrering, allt på ett och samma ställe. Fabric sätter en ny standard for dataplattformar.

Microsoft Fabric släpptes i slutet av förra året och har sedan dess skapat stort intresse. Det finns goda skäl till det. Vid första anblicken kan det tyckas bara vara en omprofilering av befintliga produkter, men ju mer man fördjupar sig i plattformen, desto mer ser man att förändringen är betydligt mer omfattande.

Det finns anledning att säga att det sätter en ny standard för dataplattformar, där livet blir enklare och bättre för alla aktörer i datakedjan. Det gäller vare sig du är vanlig konsument av data och rapporter, arbetar med rapportutveckling, är dataingenjören som fogar samman datakällorna, om du är en AI-utvecklare, eller om du har ett övergripande ansvar och måste balansera kostnader och investeringar mot varandra.

Drivkrafter för att gå över till Fabric

Motiven för att gå över till Microsoft Fabric kan var många, men kanske inte tillräckligt tydliga var för sig. I den här artikeln kommer vi att ge några förslag på ingångar till ett beslut.  Beroende på vilka miljöer du befinner dig i idag, vilka de senaste investeringarna som gjorts är, och vad som är absolut viktigast för företaget, så kanske du värderar dessa olika men förhoppningsvis hittar du rätt motiv för dig.

Förenkling och prestanda som drivkraft

På insidan av Fabric är OneLake ett centralt begrepp. Som namnet antyder – en plats för all din data. Microsoft använder ofta analogin med OneDrive för att beskriva vad OneLake gör. Precis som du kan administrera alla dina filer i OneDrive, kan du administrera all din data i OneLake. Det går till och med använda utforskaren i Windows för att få överblick över din data. Det här är ett bra exempel på ett genomgående tema i Fabric – att förenkla administration och användarupplevelsen och göra tidigare tekniska uppgifter tillgängliga för icke-tekniska användare. I förlängningen betyder det demokratisering – enklare för fler användare att få tag i rätt information.

En annan central del är att Fabric uppnår något helt nytt genom att använda VertiParq-motorn tillsammans med Delta Parquet-formatet i OneLake. Detta gör det möjligt att realisera något som tidigare varit svårt – både effektivt utnyttjande av lagringsutrymme ihop med en stark frågeprestanda. Frågor kan alltså köras direkt på komprimerad data i OneLake med bra prestanda. För oss som användare öppnar detta möjligheter att minska ner eller helt ta bort kopiering och duplicering av data som ofta tidigare krävts av prestandaskäl. Studera gärna Direct Lake-konceptet för att tillgängliggöra data till Power BI som ett exempel på vilka möjligheter som öppnas.

En tredje ny komponent är den förenklade processen kring laddning av data från externa system. Med konceptet shortcuts till externa system kan du helt undvika eller åtminstone förenkla ETL (Extract, Transform & Load) för att hämta in extern data. Med konceptet mirroring kan du få tillgång till en uppdaterad och speglad kopia på en extern databas, utan att behöva skriva någon speciell kod för detta. Uppdatering körs istället automatiskt med change data capture teknik. På dessa vis minskar mängden manuellt konstruerad transformation, och därmed minskar teknisk skuld samtidigt som datakvaliteten ökar.

Bättre AI med kontrollerad och bevisad datakvalitet

Vi har sett många AI-piloter det senaste året, ofta med begränsade och ganska allmänna tillämpningar. Det naturliga nästa steget är att sikta in sig på use cases som bygger verkliga konkurrensfördelar och då handlar det om att utnyttja datan från den egna unika affären. Här ser vi att Fabric kommer in i bilden på ett naturligt sätt. Man kan formulera det som att om AI är vårt mål och vår data är bränslet, då behöver vi ett fordon som tar oss till målet. Grunden i det fordonet tror vi är Fabric, och då blir det naturligt att se Fabric som en del i AI-resan.

För att lyckas med AI behöver vi förenkla den tunga, men helt nödvändiga delen att skaffa, organisera och förädla den data som ligger till grund för våra AI-applikationer. Fabrics komponenter hjälper oss att få en kontrollerad och bevisad datakvalitet, vilket säkerställer att AI behandlar rätt data på rätt sätt – med andra ord för att skapa ansvarsfull AI. Genom att förenkla denna kritiska uppgift kan vi lägga mer tid på att bygga unika konkurrensfördelar. Använder vi exempelvis Azure AI Studio är denna helt integrerad med Fabric.

Ställ öppna frågor med Copilot

Inom Fabric finns Copilot-stöd för Data Engineering som sänker tröskeln för att bygga bättre och effektivare data pipelines, med mindre overhead, och färre iterationer av kodgranskning och test. Även för Data Science finns Copilot-stöd för att utveckla och operera prediktiva modeller. Den kanske mest spännande av alla Copilots är möjligheten att stödja en konversation med data som en del av Power BI. Den här funktionen är för närvarande endast tillgänglig i Preview och kräver också en av de högre licensnivåerna.

Möjligheterna med detta lockar ändå många som jobbar som analytiker eller sitter i en beslutsfattande eller beslutsstödjande roll. Utgångsläget är kanske att man idag endast har tillgång till fasta rapporter som bara till viss del kan ge det svar man söker i stunden. I och med att formatet är låst blir det också begränsande för idégenerering eller mer specifik utforskning.

Även om denna begränsning ibland kan vara avsiktlig, har den desto oftare tillkommit på grund av otydlighet kring vad man egentligen vill uppnå i sina analytiska processer och de begränsningar som funnits i tidigare generationer av verktyg. Med möjligheten att ställa frågor mot data i chatform, och att direkt få stöd med att spåra mer komplexa orsakskedjor utvecklas analysförmågan avsevärt, vilket leder till snabbare och bättre insikter. Här öppnas dörren på glänt till att få svar på spontana frågor i samma ögonblick som de uppstår, till exempel i ett pågående möte eller diskussion. Varför har x eller y presterat bättre/sämre i år? Vilken fråga skulle du ställa?

Kostnadskontroll som drivkraft

En trend bland konsumenter av dataplattformar är en minskad vilja att betala för lagring, men en fortsatt acceptans att betala för beräkningskapacitet, ”compute”. Detta är den logiska följden av att till exempel datainsamling från företagets produkter när de nyttjas hos kund skapar mycket stora datamängder, samtidigt som denna data inte har något värde i vila utan får värde först när den aktiveras. Med Fabric blir det möjligt att arbeta precis så här.

Historiskt sett har aktivering av data inneburit olika typer av serverallokering och dataduplicering, ofta åtföljd av komplexa kostnadsberäkningar och till och med gissningar om vad kostnaderna kommer att bli. Licensmodellen för Fabric är kraftigt förenklad, särskilt när den används med Power BI. Beroende på din nuvarande dataplattformssituation kan detta faktiskt vara skäl nog för att samla all databehandling under Fabric.

En enklare cloud-resa

Sitter ditt företag idag på on-prem-lösningar för dataplattformen, men har planer på att göra en cloud-resa kan vi konstatera att du har tur med timing. Att gå från on-prem till en modern dataplattform i molnet har länge varit ett starkt affärscase av skäl som att det ger en enklare administration, att man får ta del av bättre skalbarhet och säkerhet, samt att man kan få lägre totalkostnader för dataplattformen när alla kostnader tas i beaktande.

Med Fabric kan vi nu se ytterligare förstärkning av business case för en cloud-resa då det går att tillgodogöra sig en helt ny nivå av enkelhet och kostnadsoptimering. Det betyder att du snabbare kan nå mål som ett moderniserat beslutsstöd eller att komma igång med helt nya AI-applikationer. En mer homogen och enklare teknikstack minskar den tekniska skulden i den kommande dataplattformen, allt positivt för att datateamet skall kunna investera mer tid i konkurrensfördelar.

Att ta med sig framåt

Företagets kommande innovationer inom data måste stå på en stabil grund. Med det som utgångspunkt föreslår vi att titta vidare på Fabric oavsett om du står i begrepp att utvärdera och välja ny plattform eller nyligen investerat i en plattform och för tillfället är låst till den. Koncepten som kommer med Fabric, tillsammans med portföljen med verktyg kring AI, är mycket kraftfulla och kommer säkerligen inspirera och driva utvecklingen i hela branschen.

Kanske kan du använda delar av av Fabric redan nu, oavsett var i en större investeringscykel du befinner dig.

Diskutera detta inlägg

Rekommenderad läsning

If you organize your data and use AI strategically, you can make better decisions faster. You can for example improve your market understanding and forecasting, optimize your maintenance or reduce food waste. Choose what is most important for you!
Demand forecasters do the impossible — predict what products and services customers want in the future. Their forecasts inform decision-making about production and inventory levels, pricing, budgeting, hiring and more. "While crystal balls remain imaginary, machine learning (ML) methods can give global supply chain leaders the support they need in the real world to create more accurate forecasts." The goal is to produce exactly the amount of product to meet demand. No more. No less. Demand forecasting is used to anticipate the demand with enough time to manufacture the right stock to get as close to this reality as possible. The cost is high if you don’t get it right. Your customers will go to your competitors if you don’t have what they need. Unfortunately, capacity, demand and cost aren’t always known parameters. Variations in demand, supplies, transportation, lead times and more create uncertainties. Ultimately demand uncertainties greatly influence supply chain performance with widespread effects on production scheduling, inventory planning and transportation. On the heels of the global pandemic, supply chain disruptions and a pending economic downturn, many demand forecasters wish for a crystal ball. While crystal balls remain imaginary, machine learning (ML) methods can give global supply chain leaders the support they need in the real world to create more accurate forecasts.
If you have identified possible AI use cases for your business, the next step will be to test if they are possible to implement and if they will create great value. While there is a lot of momentum and excitement about using AI to propel your business, the reality is only 54% of AI projects are deployed. How do you ensure you’re one of the businesses that does unlock the new opportunities AI promises? Your success with AI begins by discovering AI use cases that work for your business. In the first blog of our Columbus AI blog series, we shared five areas where organizations should focus their efforts to generate ideas for AI implementations based on our experience. After generating some ideas for AI use cases that could potentially benefit your company from the first step of the Columbus AI Innovation Lab, the next step is to test which AI use cases could be operationalized by evaluating them. Columbus AI Innovation Lab
Only half of the companies starting an AI pilot project are actually executing it. The key is to choose an idea that will benefit your business. Read more about how! In 2022, 27% of chief information officers confirmed they deployed artificial intelligence (AI), according to a Gartner AI survey. Even though businesses across all industries are turning to AI and machine learning, prepare your organization before jumping on the AI bandwagon by considering a few factors. Ask yourself: Is AI necessary for achieving the project requirements or is there another way? Does your team have the skills to support AI and machine learning? How will AI impact your current operations if you adopt it? How will you integrate AI with existing systems? What are the data, security and infrastructure requirements of AI and machine learning? The Gartner AI survey found only 54% of projects made it from the pilot phase to production. After significant investment in AI, why aren’t companies deploying it? We found the problem begins when companies define a use case. Too often, companies are not identifying AI use cases that benefit their businesses and end-users will adopt. The question is then, how should companies unlock the value and new opportunities AI promises? It starts with a systematic approach for each stage of the AI life cycle. We developed the Columbus AI Innovation Lab, a comprehensive method to address and account for all challenges when adding AI to your business operations and bring stakeholders into the process at the right time to help you operationalize AI.
It doesn’t matter how good your artificial intelligence technology is. If you have bad data, you’ll get bad results. While AI is one of the most innovative and impactful innovations for businesses today, bad data can prevent AI projects from getting off the ground. Having high-quality data and following data preparation best practices are crucial for a successful AI project. In the Transform phase of the Columbus AI Innovation Lab, the one we detail here, data is collected and prepared for use by AI and machine learning (ML) algorithms. Major phases in Machine Learning Machine learning, frequently used synonymously with “artificial intelligence,” is about using predictive methods to simplify tasks. There are several essential steps to building ML models, and these steps can change based on the issue you are trying to solve and the kind of ML model you are building. However, in general, the steps involved in creating and implementing an ML model are as follows: Define: Different approaches for finding AI use cases Discover: Scope and prioritize ideas before developing an AI solution and implementation strategy Transform: Transforming the business case including data acquisition and preparation with AI/ML (current blog) Model and evaluate: Analyze and enhance the business use cases using AI/ML algorithms Deploy and support: Deployment of AI/ML models and support/monitoring to guarantee quality and effectiveness
right-arrow share search phone phone-filled menu filter envelope envelope-filled close checkmark caret-down arrow-up arrow-right arrow-left arrow-down right-arrow share search phone phone-filled menu filter envelope envelope-filled close checkmark caret-down arrow-up arrow-right arrow-left arrow-down