De auteurs:
• Mahdi Goldani;
2) Soraya Asadi Tirvan.
Authors:
• Mahdi Goldani;
2) Soraya Asadi Tirvan.
Tafel links
Het meten van de prestaties van methoden
Abstractie
Om dit risico te beperken, wordt functionele selectie gebruikt om de modelgeneraliserbaarheid te verbeteren door de dimensionaliteit van de gegevens te verminderen. Deze studie richt zich op het evalueren van de stabiliteit van functionele selectietechnieken met betrekking tot variabele gegevensvolumes, met name met behulp van tijdsreeksvergelijkingsmethoden. Met behulp van een uitgebreide dataset die de sluiting, opening, hoge en lage prijzen van aandelen van 100 bedrijven met een hoog inkomen in de Fortune Global 500 omvat, wordt dit onderzoek gericht op het evalueren van de stabiliteit van functionele selectietechnieken met betrekking tot variantie drempels, afstandsbeheer en afstandsmetricen van Hausdorff. Het doel is methoden te identificeren die een minimale gevoeligheid voor de
Introductie
In de beoordeling van de prestaties van de machine-learning-modellen en de efficiënte identificatie van deze extra veld-integratie-functies met een complete en uitgebreide datasetfuncties kunnen de meest gebruikte modelnauwkeurigheid aanzienlijk verbeteren. Er zijn echter gevallen waarin de optie van irrelevante functies daadwerkelijk de prestaties van het model hindert in plaats van de prestaties te helpen. In feite creëert de functieruimte met grotere afmetingen van de integratie-selectie een groter aantal parameters die samen moeten worden geschat. Als gevolg hiervan verwijst de literatuur over variabiliteitsvermindering naar het omzetten van de reeks parameters van een hoogdimensionale ruimte naar een laagdimensionale ruimte. Daarom wordt de beste prestatievermindering van de afzonderlijke functies bereikt wanneer
In de literatuur is het primaire doel van kenmerken selectie is om irrelevante variabelen te elimineren, vooral wanneer het aantal kenmerken overschrijdt het aantal waarnemingen. Deze praktijk helpt bij het verminderen van overfitting, ervoor te zorgen dat het model generaliseren goed naar onzichtbare gegevens. Daarom, kenmerken selectie is een methode voor het omgaan met een klein aantal waarnemingen. Maar verandert de prestaties van kenmerken selectie methoden wanneer het aantal waarnemingen is zeer klein? In feite, dit artikel probeert om het antwoord op deze vraag te vinden; Wanneer we worden geconfronteerd met een klein aantal waarnemingen, welke resultaten van de kenmerken selectie methoden kunnen betrouwbaarder zijn? Dit probleem is belangrijk omdat de meeste bestaande datasets die jaarlijkse gegevens bieden het probleem van een klein aantal
Feature selectie is een veelgebruikte techniek in verschillende data mining- en machine learning-toepassingen. In de literatuur over feature selectie zijn er geen studies die vergelijkingsmethoden rechtstreeks als kenmerken selectiemethoden gebruiken, maar er zijn enkele onderzoeken die dit concept verkennen of vergelijkingsmethoden in functie selectieprocessen opnemen. Bijvoorbeeld, Zhu et al [3] In het voorgestelde Feature Selection-based Feature Clustering-algoritme (FSFC) is het algoritme gericht op het meten van de vergelijking tussen kenmerken om redundancy te identificeren en te verwijderen, wat resulteert in een efficiënter en effectiever kenmerken selectieproces. In het domein van relevantie-exfinity-voorspelling wordt Mitra [4] voorgesteld dat een
Kunalas [8] benadrukt de cruciale rol van de schatting van de steekproefgrootte in machine learning studies, met name in het voorspellen van de selectie van autisme spectrumstoornissen met high-dimensionale dataset. Het bespreekt hoe kleine steekproefgroottes kunnen leiden tot vooroordeel prestatie schattingen in machine learning en onderzoekt of deze vooroordeel op het testen van geomorfische verstoringen kan worden veroorzaakt door validatie methoden niet voldoende te controleren overvulling. Simulaties tonen aan dat bepaalde validatie methoden produceren vooroordeel schattingen, terwijl anderen robuust blijven ongeacht de steekproefgrootte. Het bespreekt hoe kleine steekproefgroottes kunnen leiden tot vooroordeel prestaties schattingen in machine learning voor het voorsp
Een overzicht van studies verduidelijkt twee fundamentele kwesties. Eén, onder de genoemde studies, is er geen studie die rechtstreeks gebruik maakt van vergelijkingsmethoden als een kenmerksselectiemethode. Daarom, als een nieuw voorstel, maakt deze studie rechtstreeks gebruik van vergelijkingsmethoden als een kenmerksselectiemethode en vergelijkt hun voorspellingsprestaties met kenmerksselectiemethoden. Tweede, in deze studie, een reële gegevensset (Financiële gegevens van de 100 grootste bedrijven per omzet), om de gevoeligheid van elke methode voor de steekproefgrootte te evalueren en deze met een andere te vergelijken. De rest van het papier is als volgt georganiseerd: de methodologie wordt besproken in afdeling 2, afdeling 3 presenteert de resultaten van de studie
Dit document is beschikbaar op archiv onder CC BY-SA 4.0 by Deed (Attribution-Sharealike 4.0 International) licentie.
Dit document is beschikbaar op archiv onder CC BY-SA 4.0 by Deed (Attribution-Sharealike 4.0 International) licentie.