Freelance DATA : Distinguez les savoir-faire nécessaires à votre projet

Je dépose une mission gratuitement
Je dépose mon CV

DATA : définition

Le travail de freelance Data est encore un métier méconnu de tous. Pourtant, les freelances Data sont très prisés par les entreprises. Grâce à leur grande capacité d'analyse et leur forte logique, les freelances Data aident les entreprises à évoluer et à s'épanouir. Mais, c'est quoi exactement un freelance Data ?

En quoi consiste le métier d'un freelance Data ?

S'agissant d'un mot anglais, Data signifie donnée. Alors, vous pouvez en déduire que les freelances Data sont des personnes qui travaillent dans la gestion et le traitement des données. Ces dernières illustrent diverses informations liées à la concurrence, à la statistique des ventes de produits et à la tendance de consommation des clients de l'entreprise.

Les freelances Data traitent les données et les convertis en flux réel d'information qui sont essentiels, voir vital pour les entreprises. En effet, ces flux d'informations sont des clés pour les prises de décision stratégique et commerciale de l'entreprise.

Quels sont les métiers de freelance Data ?

Aujourd'hui, le métier du digital est en pleine évolution. Tout comme les startups, le freelance Data commence peu à peu à se faire connaître dans le monde de grandes entreprises. Dans le domaine de la gestion et de l'analyse des données, vous pouvez trouver de nombreuse sorte de travail en freelancing.

Sur le marché, vous pouvez découvrir plusieurs grandes catégories comme les Data Scientists, les business Analysts, les Data Analysts, le Machine Learning et les chefs de projets.

Un Data Scientist

Pour devenir un Data Scientist, il faut réaliser de longues études en informatique, en science des données, statistiques et mathématique. Avant de pouvoir candidater pour un poste de Data Scientist, il vous faut un diplôme de maîtrise en informatique des données.

Le travail du Data Scientist est l'un de nombreux métiers issus de l'analyse du Big Data. En tant que Data Scientist freelance ou Data Scientist python, votre travail consiste à analyser des données massives.

Un business Analyst

Pour être un spécialiste dans ce domaine, vous devez avoir au minimum un bac+4. En revanche, pour occuper ce poste, vous n'êtes pas forcément titulaire d'un diplôme en informatique. En principe, ce métier requiert une maîtrise en commerce et marketing.

Pour exercer ce métier en toute facilité, les business Analyst devront être observateurs, attentifs et surtout dotés d'une forte capacité d'analyse. En ayant ces facultés, ils peuvent traiter les données en leur possession et déduire par la suite des conclusions qui auront un impact réel et bénéfique à l'entreprise qui les emploie.

Comment devenir un freelance Data ?

Comme mentionner ci-dessus, devenir un freelance Data n'est pas du tout facile. Si vous souhaitez devenir un freelance Data : Business Analyst, Data Analyst, ou un Data Scientist, vous devez d'abord faire en sorte d'obtenir votre diplôme Master, soit en informatique, soit en commerce.

Pour bien interpréter les données chiffrées, il faut avoir une grande capacité d'analyse et un sens de la logique accru.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Mehdi,
freelance DATA habitant Paris (75)

  • Société générale – DSI CFTParis
    Jan 2021 - aujourd'hui

    Project « Finance District » :

    Mission: Finance District supports the business areas of the CFT IT department in the design and
    implementation of solutions related to data
    Position: Technical Lead Big Data Engineer.

    Lead tasks:
    ❖ Daily technical support for data engineers.
    ❖ Implementation of a monitoring module for the execution plan of Quartier Finance.
    ❖ Design of a data quality management module.
    ❖ Design of a production job monitoring module.
    ❖ Supervision of the technical and functional migration from Talend Big data to Scala/Spark.
    ❖ Ensuring the migration of Spark 2.1 projects to 2.4.
    ❖ Implementation of a data anonymization solution.
    ❖ Implementation of the Scala/Spark CI/CD pipeline.
    ❖ Ensuring the migration from Hortonworks to CDP.
    Technical tasks:
    • Analyzing and implementing "hot fixes" in production.
    • Implementation of a Scala/Spark framework to facilitate and standardize Scala/Spark
    developments.
    • Developing a solution for sending files via WebHdfs.
    • Tuning the performance of Scala/Spark applications for batch interval, parallelism, and memory.
    • Optimization of existing algorithms in Hadoop using SparkSession, Spark-SQL, Data Frames,
    and Pair RDDs.
    • Manipulating large datasets using Partitions, Spark memory capabilities, Spark Broadcasts, and
    efficient Joins.
    • Developing audit logic to optimize the load in append mode.
    • Developing solutions for pre-processing large sets of structured and semi-structured data with
    different formats (text files, Avro, sequence files, JSON records).
    • Use of Parquet, ORC, Avro files according to the technical need.
    • Study of the choice of Spark partitions for "write HDFS" and the calculation of the coalesce to
    avoid the shuffle
    • Implementation of performance improvements based on job monitoring via SparkUI
    • Adding "persist" via Spark and "serialization" of data as needed
    • Use of RDD, DataFrame, DataSet according to the technical need.
    • Development of some UDF on Spark 2.4
    • Deployment and Orchestration of the project via ControlM
    • Use of scalaTest to ensure unit tests and code coverage at the SonarQube level
    • Development of test cases, test scenarios with TDD logic using Cucumber.
    • Log recovery via Scala/Kafka & Spark Streaming from YARN for analysis and monitoring of
    the application.

  • aujourd'hui

    Project « PRORATA VAT »:
    Mission: Equip accounting and fiscal business with a digital solution for calculating the "PRORATA
    TVA" tax base
    Position: Technical Lead Big Data Engineer.
    Lead tasks:
    ❖ Facilitate or lead agility ceremonies.
    ❖ Implementation of the Data solution architecture using "Scala/Spark" and establishing a link
    with visualization tools.
    ❖ Optimization of the performance and scalability of "Scala/Spark" data systems for jobs.
    ❖ Ensuring the quality and reliability of data.
    ❖ Synchronize with web restitution and PowerBI teams.
    ❖ Collaborate with security teams to ensure the security of data.
    ❖ Definition of standards and best practices for data projects.
    Technical tasks:
    • Writing technical specifications.
    • Definition of big data architecture.
    • Scala/Spark development of calculations for the "prorata tva" bases.
    • Implementation of Scala/Spark jobs.
    • Development of data extraction jobs from APIs.
    • Analyze, design and build Modern data solutions using Azure PaaS service to support visualization
    of data. Understand current Production state of application and determine the impact of new
    implementation on existing business processes.
    • Extract Transform and Load data from Sources Systems to Azure Data Storage services using a
    combination of Azure Data Factory, T-SQL, Spark SQL and U-SQL Azure Data Lake
    Analytics. Data Ingestion to one or more Azure Services - (Azure Data Lake, Azure Storage,
    Azure SQL, Azure DW) and processing the data in In Azure Databricks.
    • Created Pipelines in ADF using Linked Services/Datasets/Pipeline/ to Extract, Transform and
    load data from different sources like Azure SQL, Blob storage, Azure SQL Data warehouse, writeback tool and backwards.
    • Developed Spark applications using Pyspark and Spark-SQL for data extraction, transformation
    and aggregation from multiple file formats for analyzing & transforming the data to uncover
    insights into the customer usage patterns.
    • Responsible for estimating the cluster size, monitoring and troubleshooting of the Spark
    databricks cluster.
    • Experienced in performance tuning of Spark Applications for setting right Batch Interval time,
    correct level of Parallelism and memory tuning

  • aujourd'hui

    Project « C3S TAX »:
    Mission: Proposal for a technical data/big data and Azure Cloud architecture to meet the need for
    industrialization of the C3S tax calculation.
    Position: Data Architect
    Architect tasks:
    ❖ Define an architectur...

Voir le profil complet de ce freelance

Les derniers freelances DATA

CV Data Scientist PYTHON
Donatien

Data Scientist PYTHON

  • GIF-SUR-YVETTE
PYTHON DATA SQL APACHE SPARK Microsoft Power BI BIG DATA Cloud AWS
Disponible
CV Responsable paie ADP Decidium
Oumou

Responsable paie ADP Decidium

  • LES MUREAUX
ADP
CV Consultant cybersécurité ISO 2700x
Fatou

Consultant cybersécurité ISO 2700x

  • NANTERRE
ISO 2700x RISQUE PCI DSS HDS SHAREPOINT DATA LOSS PREVENTION (DLP)
Bientôt disponible
CV Chef de projet AGILE -
Ouséma

Chef de projet AGILE -

  • SAINT-PRIEST
AGILE JIRA SCRUM PROJECT MANAGEMENT OFFICE CONFLUENCE JAVA SQL ORACLE ITIL
Disponible
CV Développeur EXCEL
Léa

Développeur EXCEL

  • PARIS
EXCEL VBA
Disponible
CV Développeur Senior JAVA / TypeScript / Golang
Kevin

Développeur Senior JAVA / TypeScript / Golang

  • MONTPELLIER
JAVA SPRING TypeScript POSTGRES PostGIS Google Cloud Platform GO
Disponible
CV Consultant cybersécurité & développement
Alain

Consultant cybersécurité & développement

  • BUSSIÈRES
C C++ JAVA ORACLE
Disponible
CV Ingénieur de développement PYTHON
Naji

Ingénieur de développement PYTHON

  • RUEIL-MALMAISON
POSTGRESQL PYTHON DJANGO ELK
Disponible
CV Data Analyst
Mathieu

Data Analyst

  • SÉRIGNAN-DU-COMTAT
EXCEL DATA BIG DATA SQL Microsoft Power BI TABLEAU SOFTWARE BI AZURE
Disponible
CV Développeur NdeJs ReactJs AWS
Ismail

Développeur NdeJs ReactJs AWS

  • LYON
NODE.JS Cloud AWS TypeScript Angular REACT.JS NestJS
Disponible
Je trouve mon freelance DATA

Les nouvelles missions DATA

Consultant(e) Informatica

INFORMATICA
20/05/2024
Levallois Perret
3 mois
Voir la mission

Network Specialist

CISCO FIREWALL CHECKPOINT
15/05/2024
67 - STRASBOURG
24 mois
Voir la mission

Directeur du Delivery & Data Solutions

GIT MULESOFT ANYPOINT PLATFORM Kubernetes EasyVista
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur Fullstack Angular/ NodeJS

Angular NODE.JS Google Cloud Platform Cloud AWS AZURE
15/05/2024
69 - Lyon
12 mois
Voir la mission

Consultant SAP Logistique Transport

SAP MM SAP SD MM SAP SD
20/05/2024
92 - Nanterre
3 mois
Voir la mission

Service engineer réseau sécurité

Cloud AWS FIREWALL
ASAP
93
3 mois
Voir la mission

Consultant POWER BI

Microsoft Power BI
17/06/2024
75 - Paris
2 mois
Voir la mission

Administrateur Cognos 10

COGNOS BI COGNOS COGNOS C10
30/05/2024
75 - Paris
3 mois
Voir la mission

Architecte Data IA Cloud - Senior

AZURE Cloud AWS
06/05/2024
75 - PARIS
12 mois
Voir la mission

Data Engineer

SQL ORACLE PYTHON SSAS AZURE
06/05/2024
59 - CROIX
6 mois
Voir la mission
Je trouve ma mission DATA

Les freelances maîtrisant DATA ont postulé à :

Business Analyst Monétique

JAVA AGILE JIRA MONETIQUE
ASAP
75 - PARIS
12 mois
Voir la mission

Chef de projet MOA Summit

SUMMIT
13/05/2024
75 - PARIS
18 mois
Voir la mission

Scrum Master (H/F)

AGILE SCRUM KANBAN SAFE
21/05/2024
79 - NIORT
12 mois
Voir la mission

Chef de Projet RUN ITIL F/H

ITIL JIRA SERVICENOW
27/05/2024
75 - PARIS
7 mois
Voir la mission

Chef de projet SI

02/05/2024
59 - Croix
6 mois
Voir la mission

Ingénieur de production Applicative

LINUX WINDOWS ITIL Cloud AWS DEVOPS INFOR M3
02/05/2024
92 - Pantin
3 mois
Voir la mission

Business Analyste - Summit - Reporting Règlementaire

SQL SUMMIT MiFID
27/05/2024
75 - PARIS
36 mois
Voir la mission

Chef de projet technique

SQL KANBAN RUBY ON RAILS AGILE HTML5
03/06/2024
75 - PARIS
3 mois
Voir la mission

Chef de projet fonctionnel

AGILE
10/05/2024
73 - Aix Les Bains
6 mois
Voir la mission

Chef de projet Salesforce/ Marketing Cloud

SALESFORCE
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission DATA