[FIX] removing printDebug
[gargantext.git] / src / Gargantext / Core / Text / List.hs
index a802618e24048c813672d204f39a9adea8ddfc22..ebaa58a8b99b60f164622e363fe21182078b0d18 100644 (file)
@@ -16,15 +16,14 @@ module Gargantext.Core.Text.List
   where
 
 import Control.Lens hiding (both) -- ((^.), view, over, set, (_1), (_2))
+import Data.HashMap.Strict (HashMap)
+import Data.HashSet (HashSet)
 import Data.Map (Map)
-import Data.Maybe (catMaybes, fromMaybe)
 import Data.Monoid (mempty)
 import Data.Ord (Down(..))
 import Data.Set (Set)
-import Data.Text (Text)
 import Data.Tuple.Extra (both)
-import Gargantext.API.Ngrams.Types (NgramsElement)
-import Gargantext.API.Ngrams.Types (RepoCmdM)
+import Gargantext.API.Ngrams.Types (NgramsElement, RepoCmdM, NgramsTerm(..))
 import Gargantext.Core.Text (size)
 import Gargantext.Core.Text.List.Group
 import Gargantext.Core.Text.List.Group.Prelude
@@ -38,17 +37,19 @@ import Gargantext.Database.Action.Metrics.NgramsByNode (getNodesByNgramsUser, ge
 import Gargantext.Database.Action.Metrics.TFICF (getTficf)
 import Gargantext.Database.Admin.Types.Node (NodeId)
 import Gargantext.Database.Prelude (CmdM)
+import Gargantext.Database.Query.Table.Ngrams (text2ngrams)
 import Gargantext.Database.Query.Table.Node (defaultList)
+import Gargantext.Database.Query.Table.NgramsPostag (selectLems)
 import Gargantext.Database.Query.Table.Node.Error (HasNodeError())
 import Gargantext.Database.Query.Tree.Error (HasTreeError)
-import Gargantext.Database.Schema.Ngrams (NgramsType(..))
+import Gargantext.Database.Schema.Ngrams (NgramsType(..), Ngrams(..))
 import Gargantext.Prelude
-import qualified Data.Char as Char
-import qualified Data.List as List
-import qualified Data.Map  as Map
-import qualified Data.Set  as Set
-import qualified Data.Text as Text
-
+import qualified Data.HashMap.Strict as HashMap
+import qualified Data.List    as List
+import qualified Data.Map     as Map
+import qualified Data.Set     as Set
+import qualified Gargantext.Data.HashMap.Strict.Utils as HashMap
+import qualified Data.HashSet as HashSet
 
 {-
 -- TODO maybe useful for later
@@ -59,19 +60,18 @@ isStopTerm (StopSize n) x = Text.length x < n || any isStopChar (Text.unpack x)
 -}
 
 
-
 -- | TODO improve grouping functions of Authors, Sources, Institutes..
 buildNgramsLists :: ( RepoCmdM env err m
                     , CmdM     env err m
                     , HasTreeError err
                     , HasNodeError err
                     )
-                 => User
-                 -> GroupParams
+                 => GroupParams
+                 -> User
                  -> UserCorpusId
                  -> MasterCorpusId
                  -> m (Map NgramsType [NgramsElement])
-buildNgramsLists user gp uCid mCid = do
+buildNgramsLists gp user uCid mCid = do
   ngTerms     <- buildNgramsTermsList user uCid mCid gp (NgramsTerms, MapListSize 350)
   othersTerms <- mapM (buildNgramsOthersList user uCid GroupIdentity)
                       [ (Authors   , MapListSize 9)
@@ -94,34 +94,48 @@ buildNgramsOthersList ::( HasNodeError err
                         -> GroupParams
                         -> (NgramsType, MapListSize)
                         -> m (Map NgramsType [NgramsElement])
-buildNgramsOthersList user uCid groupParams (nt, MapListSize mapListSize) = do
-  allTerms  :: Map Text (Set NodeId) <- getNodesByNgramsUser uCid nt
+buildNgramsOthersList user uCid _groupParams (nt, MapListSize mapListSize) = do
+  allTerms  :: HashMap NgramsTerm (Set NodeId) <- getNodesByNgramsUser uCid nt
 
   -- | PrivateFirst for first developments since Public NodeMode is not implemented yet
-  socialLists' :: FlowCont Text FlowListScores
-    <- flowSocialList' MySelfFirst user nt ( FlowCont Map.empty
-                                                      $ Map.fromList
-                                                      $ List.zip (Map.keys allTerms)
+  socialLists :: FlowCont NgramsTerm FlowListScores
+    <- flowSocialList MySelfFirst user nt ( FlowCont HashMap.empty
+                                                      $ HashMap.fromList
+                                                      $ List.zip (HashMap.keys allTerms)
                                                                  (List.cycle [mempty])
                                            )
   let
-    groupedWithList = toGroupedTree groupParams socialLists' allTerms
+    groupedWithList = toGroupedTree {- groupParams -} socialLists allTerms
 
-  let
-    (stopTerms, tailTerms) = Map.partition ((== Just StopTerm) . viewListType) $ view flc_scores groupedWithList
-    (mapTerms, tailTerms') = Map.partition ((== Just MapTerm)  . viewListType) tailTerms
+    (stopTerms, tailTerms) = HashMap.partition ((== Just StopTerm) . viewListType)
+                           $ view flc_scores groupedWithList
+
+    (mapTerms, tailTerms') = HashMap.partition ((== Just MapTerm)  . viewListType) tailTerms
 
     listSize = mapListSize - (List.length mapTerms)
-    (mapTerms', candiTerms) = both Map.fromList
+    (mapTerms', candiTerms) = both HashMap.fromList
                             $ List.splitAt listSize
                             $ List.sortOn (Down . viewScore . snd)
-                            $ Map.toList tailTerms'
+                            $ HashMap.toList tailTerms'
 
-  pure $ Map.fromList [( nt,  (toNgramsElement stopTerms)
-                           <> (toNgramsElement mapTerms )
-                           <> (toNgramsElement $ setListType (Just MapTerm      ) mapTerms' )
-                           <> (toNgramsElement $ setListType (Just CandidateTerm) candiTerms)
-                      )]
+  pure $ Map.fromList [( nt, (toNgramsElement stopTerms)
+                          <> (toNgramsElement mapTerms )
+                          <> (toNgramsElement $ setListType (Just MapTerm      ) mapTerms' )
+                          <> (toNgramsElement $ setListType (Just CandidateTerm) candiTerms)
+                          )]
+
+
+getGroupParams :: ( HasNodeError err
+                  , CmdM     env err m
+                  , RepoCmdM env err m
+                  , HasTreeError err
+                  )
+               => GroupParams -> HashSet Ngrams -> m GroupParams
+getGroupParams gp@(GroupWithPosTag l a _m) ng = do
+  hashMap <- HashMap.fromList <$> selectLems l a (HashSet.toList ng)
+  -- printDebug "hashMap" hashMap
+  pure $ over gwl_map (\x -> x <> hashMap) gp
+getGroupParams gp _ = pure gp
 
 
 -- TODO use ListIds
@@ -136,41 +150,54 @@ buildNgramsTermsList :: ( HasNodeError err
                         -> GroupParams
                         -> (NgramsType, MapListSize)
                         -> m (Map NgramsType [NgramsElement])
-buildNgramsTermsList user uCid mCid groupParams (nt, mapListSize)= do
+buildNgramsTermsList user uCid mCid groupParams (nt, _mapListSize)= do
 
+-- | Filter 0 With Double
 -- Computing global speGen score
-  allTerms :: Map Text Double <- getTficf uCid mCid nt
+  allTerms :: HashMap NgramsTerm Double <- getTficf uCid mCid nt
 
   -- | PrivateFirst for first developments since Public NodeMode is not implemented yet
-  socialLists' :: FlowCont Text FlowListScores
-    <- flowSocialList' MySelfFirst user nt ( FlowCont Map.empty
-                                                      $ Map.fromList
-                                                      $ List.zip (Map.keys allTerms)
-                                                                 (List.cycle [mempty])
+  socialLists :: FlowCont NgramsTerm FlowListScores
+    <- flowSocialList MySelfFirst user nt ( FlowCont HashMap.empty
+                                                      $ HashMap.fromList
+                                                      $ List.zip (HashMap.keys   allTerms)
+                                                                 (List.cycle     [mempty])
                                            )
-  let groupedWithList = toGroupedTree groupParams socialLists' allTerms
-      (stopTerms, candidateTerms) = Map.partition ((== Just StopTerm) . viewListType)
+  let ngramsKeys = HashMap.keysSet allTerms
+
+  groupParams' <- getGroupParams groupParams (HashSet.map (text2ngrams . unNgramsTerm) ngramsKeys)
+
+  let
+    socialLists_Stemmed = addScoreStem groupParams' ngramsKeys socialLists
+  --printDebug "socialLists_Stemmed" socialLists_Stemmed
+    groupedWithList = toGroupedTree socialLists_Stemmed allTerms
+    (stopTerms, candidateTerms) = HashMap.partition ((== Just StopTerm) . viewListType)
                                   $ view flc_scores groupedWithList
-      (groupedMono, groupedMult)  = Map.partitionWithKey (\t _v -> size t < 2) candidateTerms
+
+    (groupedMono, groupedMult)  = HashMap.partitionWithKey (\(NgramsTerm t) _v -> size t < 2) candidateTerms
+
+  -- printDebug "stopTerms" stopTerms
 
   -- splitting monterms and multiterms to take proportional candidates
-  let
     -- use % of list if to big, or Int if too small
     listSizeGlobal = 2000 :: Double
     monoSize = 0.4  :: Double
     multSize = 1 - monoSize
 
-    splitAt n' ns = both (Map.fromListWith (<>))
+    splitAt n' ns = both (HashMap.fromListWith (<>))
                   $ List.splitAt (round $ n' * listSizeGlobal)
                   $ List.sortOn (viewScore . snd)
-                  $ Map.toList ns
+                  $ HashMap.toList ns
 
-    (groupedMonoHead, groupedMonoTail) = splitAt monoSize groupedMono
-    (groupedMultHead, groupedMultTail) = splitAt multSize groupedMult
+    (groupedMonoHead, _groupedMonoTail) = splitAt monoSize groupedMono
+    (groupedMultHead, groupedMultTail)  = splitAt multSize groupedMult
 
+-------------------------
+-- Filter 1 With Set NodeId and SpeGen
     selectedTerms = Set.toList $ hasTerms (groupedMonoHead <> groupedMultHead)
 
- -- TO remove (and remove HasNodeError instance)
+ -- TODO remove (and remove HasNodeError instance)
   userListId    <- defaultList uCid
   masterListId  <- defaultList mCid
 
@@ -180,44 +207,45 @@ buildNgramsTermsList user uCid mCid groupParams (nt, mapListSize)= do
                                             selectedTerms
 
   let
-    groupedTreeScores_SetNodeId :: Map Text (GroupedTreeScores (Set NodeId))
-    groupedTreeScores_SetNodeId = undefined
-    -- setScoresWith (\_ _ -> mempty) (groupedMonoHead <> groupedMultHead)
-    -- groupedTreeScores_SetNodeId = setScoresWith ((fromMaybe mempty) . ((flip Map.lookup) mapTextDocIds)) (groupedMonoHead <> groupedMultHead)
+    groupedTreeScores_SetNodeId :: HashMap NgramsTerm (GroupedTreeScores (Set NodeId))
+    groupedTreeScores_SetNodeId = HashMap.filter (\g -> Set.size (view gts'_score g) > 1) -- removing hapax
+                                $ setScoresWithMap mapTextDocIds (groupedMonoHead <> groupedMultHead)
+
+
+  printDebug "groupedTreeScores_SetNodeId" groupedTreeScores_SetNodeId
 
   -- | Coocurrences computation
   --, t1 >= t2 -- permute byAxis diag  -- since matrix symmetric
-  let mapCooc = Map.filter (>2)
-            Map.fromList [ ((t1, t2), Set.size $ Set.intersection s1 s2)
+  let mapCooc = HashMap.filter (>1) -- removing cooc of 1
+              $ HashMap.fromList [ ((t1, t2), Set.size $ Set.intersection s1 s2)
                            | (t1, s1) <- mapStemNodeIds
                            , (t2, s2) <- mapStemNodeIds
                            ]
           where
-            mapStemNodeIds = Map.toList
-                           $ Map.map viewScores
+            mapStemNodeIds = HashMap.toList
+                           $ HashMap.map viewScores
                            $ groupedTreeScores_SetNodeId
   let
     -- computing scores
-    mapScores f = Map.fromList
+    mapScores f = HashMap.fromList
                 $ map (\g -> (view scored_terms g, f g))
                 $ normalizeGlobal
                 $ map normalizeLocal
-                $ scored' mapCooc
+                $ scored'
+                $ Map.fromList -- TODO remove this
+                $ HashMap.toList mapCooc
 
   let
-    groupedTreeScores_SpeGen :: Map Text (GroupedTreeScores (Scored Double))
-    groupedTreeScores_SpeGen = undefined
-    -- setScoresWith (\k v -> set gts'_score (Scored "" 0 0) v) (groupedMonoHead <> groupedMultHead)
-    -- groupedTreeScores_SpeGen = setScoresWith (\k v -> set gts'_score (fromMaybe (Scored "" 0 0) $ Map.lookup k (mapScores identity)) v) (groupedMonoHead <> groupedMultHead)
+    groupedTreeScores_SpeGen :: HashMap NgramsTerm (GroupedTreeScores (Scored NgramsTerm))
+    groupedTreeScores_SpeGen = setScoresWithMap (mapScores identity) groupedTreeScores_SetNodeId
 
   let
     -- sort / partition / split
     -- filter mono/multi again
-    (monoScored, multScored) = Map.partitionWithKey (\t _v -> size t < 2) groupedTreeScores_SpeGen
-    -- (monoScored, multScored) = List.partition (\g -> _gt_size g < 2) groupsWithScores
+    (monoScored, multScored) = HashMap.partitionWithKey (\(NgramsTerm t) _v -> size t < 2) groupedTreeScores_SpeGen
 
       -- filter with max score
-    partitionWithMaxScore = Map.partition (\g -> (view scored_genInc $ view gts'_score g)
+    partitionWithMaxScore = HashMap.partition (\g -> (view scored_genInc $ view gts'_score g)
                                                > (view scored_speExc $ view gts'_score g)
                                           )
 
@@ -231,41 +259,47 @@ buildNgramsTermsList user uCid mCid groupParams (nt, mapListSize)= do
     inclSize = 0.4  :: Double
     exclSize = 1 - inclSize
 
-    splitAt' n' = (both (Map.fromList)) . (List.splitAt (round $ n' * listSizeLocal))
-    sortOn   f  = (List.sortOn (Down . f . _gts'_score . snd)) . Map.toList
+    splitAt' n' = (both (HashMap.fromList)) . (List.splitAt (round $ n' * listSizeLocal))
+    sortOn   f  = (List.sortOn (Down . (view (gts'_score . f)) . snd)) . HashMap.toList
+
 
-    monoInc_size = monoSize * inclSize / 2
-    (monoScoredInclHead, monoScoredInclTail) = splitAt' monoInc_size $ (sortOn _scored_genInc) monoScoredIncl
-    (monoScoredExclHead, monoScoredExclTail) = splitAt' monoInc_size $ (sortOn _scored_speExc) monoScoredExcl
+    monoInc_size = splitAt' $ monoSize * inclSize / 2
+    (monoScoredInclHead, _monoScoredInclTail) = monoInc_size $ (sortOn scored_genInc) monoScoredIncl
+    (monoScoredExclHead, _monoScoredExclTail) = monoInc_size $ (sortOn scored_speExc) monoScoredExcl
 
-    multExc_size = multSize * exclSize / 2
-    (multScoredInclHead, multScoredInclTail) = splitAt' multExc_size $ (sortOn _scored_genInc) multScoredIncl
-    (multScoredExclHead, multScoredExclTail) = splitAt' multExc_size $ (sortOn _scored_speExc) multScoredExcl
+    multExc_size = splitAt' $ multSize * exclSize / 2
+    (multScoredInclHead, multScoredInclTail) = multExc_size $ (sortOn scored_genInc) multScoredIncl
+    (multScoredExclHead, multScoredExclTail) = multExc_size $ (sortOn scored_speExc) multScoredExcl
 
+------------------------------------------------------------
     -- Final Step building the Typed list
-    termListHead = maps <> cands
-      where
-        maps = setListType (Just MapTerm)
-            $ monoScoredInclHead
-             <> monoScoredExclHead
-             <> multScoredInclHead
-             <> multScoredExclHead
-
-        cands = setListType (Just CandidateTerm)
-             $ monoScoredInclTail
-              <> monoScoredExclTail
-              <> multScoredInclTail
-              <> multScoredExclTail
-
-    termListTail = (setListType (Just CandidateTerm)) (groupedMonoTail <> groupedMultTail)
-
-  let result = Map.unionsWith (<>)
-       [ Map.fromList [( nt, toNgramsElement termListHead
-                          <> toNgramsElement termListTail
+    -- Candidates Terms need to be filtered
+  let
+    maps = setListType (Just MapTerm)
+        $  monoScoredInclHead
+        <> monoScoredExclHead
+        <> multScoredInclHead
+        <> multScoredExclHead
+
+    -- An original way to filter to start with
+    cands = setListType (Just CandidateTerm)
+          $  {- monoScoredInclTail
+          <> monoScoredExclTail
+          <> -} multScoredInclTail
+          <>  multScoredExclTail
+
+    cands' = setListType (Just CandidateTerm)
+          {-$  groupedMonoTail
+          <>-} groupedMultTail
+
+    result = Map.unionsWith (<>)
+       [ Map.fromList [( nt, toNgramsElement maps
+                          <> toNgramsElement cands
+                          <> toNgramsElement cands'
                           <> toNgramsElement stopTerms
                       )]
        ]
 
-  pure result
+  -- printDebug "result" result
 
-------------------------------------------------------------------------------
+  pure result